ES2587436T3 - Cámara de profundidad de baja potencia integrada y dispositivo de proyección - Google Patents
Cámara de profundidad de baja potencia integrada y dispositivo de proyección Download PDFInfo
- Publication number
- ES2587436T3 ES2587436T3 ES11831132.3T ES11831132T ES2587436T3 ES 2587436 T3 ES2587436 T3 ES 2587436T3 ES 11831132 T ES11831132 T ES 11831132T ES 2587436 T3 ES2587436 T3 ES 2587436T3
- Authority
- ES
- Spain
- Prior art keywords
- light
- sensor
- subframe
- light source
- synchronized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—Three-dimensional [3D] imaging with simultaneous measurement of time-of-flight at a two-dimensional [2D] array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
- H04N5/7408—Direct viewing projectors, e.g. an image displayed on a video CRT or LCD display being projected on a screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
- H04N5/7475—Constructional details of television projection apparatus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3182—Colour adjustment, e.g. white balance, shading or gamut
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
- G01S17/18—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Measurement Of Optical Distance (AREA)
- Studio Devices (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Dispositivo proyector de vídeo (100, 300), que comprende: una fuente de luz (318) que emite luz visible; un controlador (316) que acciona la fuente de luz (318); al menos un componente óptico (322) que proyecta la luz visible en un campo de visión; un sensor (350) que detecta la luz visible, incluyendo la luz visible que es reflejada desde al menos un objeto en el campo de visión, comprendiendo el sensor (350) una pluralidad de píxeles; y al menos un circuito de control (310, 340) que proporciona una subtrama sincronizada, en la que la fuente de luz (318) es accionada en un modo pulsado mientras que el sensor (350) es operado en un modo sincronizado, después de lo cual la fuente de luz (318) es accionada en un modo continuo mientras que es leído el sensor (350) para obtener valores de intensidad de luz, en el que el al menos un circuito de control (310, 340) deriva datos de profundidad con respecto al por lo menos un objeto en el campo de visión en base a los valores de intensidad de luz utilizando un principio de tiempo de vuelo, y la fuente de luz (318) y el componente óptico (322) son usados para la proyección de video y para la medición de tiempo de vuelo, en el que el al menos un circuito de control (310, 340) proporciona una subtrama no sincronizada, en la que la fuente de luz (318) es accionada en el modo pulsado mientras que el sensor (350) es operado en un modo no sincronizado, después de lo cual la fuente de luz (318) es accionada en el modo continuo mientras que es leído el sensor (350) para obtener valores de intensidad de luz, en el que el al menos un circuito de control (310, 340) ajusta los valores de intensidad de luz obtenidos durante la subtrama sincronizada en base a los valores de intensidad de luz obtenidos durante la subtrama no sincronizada, para compensar la reflectividad del al menos un objeto en el campo de visión.
Description
5
10
15
20
25
30
35
40
45
50
55
DESCRIPCION
Camara de profundidad de baja potencia integrada y dispositivo de proyeccion Antecedentes
Una camara de profundidad en tiempo real puede determinar la distancia a una persona u otro objeto en un campo de vision de la camara, y actualizar la distancia sustancialmente en tiempo real en base a un numero de imagenes por segundo de la camara. Tal camara de profundidad puede ser utilizada en sistemas de captura de movimiento, por ejemplo para obtener datos relativos a la localizacion y el movimiento de un cuerpo humano o de otro sujeto en un espacio ffsico, y puede utilizar los datos como una entrada a una aplicacion en un sistema informatico. Son posibles muchas aplicaciones, por ejemplo para propositos militares, de entretenimiento, deportivos y medicos. Una camara de profundidad incluye tfpicamente un iluminador de infrarrojos que ilumina el campo de vision, y uno o mas sensores de imagen infrarroja que detectan la luz reflejada desde el campo de vision para formar una imagen. Por otra parte, la camara de profundidad puede ser proporcionada como parte de una consola de juegos que se comunica con un dispositivo de visualizacion, tal como una television en el hogar de un usuario. Sin embargo, existen varios desaffos en la adaptacion de la tecnologfa de camara de profundidad para dispositivos portatiles u otros dispositivos de factor de forma pequeno, tales como dispositivos proyectores de video. Estos desaffos incluyen limitaciones de potencia y espacio.
El documento WO 2009/124601 A1 describe un sistema de formacion de imagenes que incluye un sistema de retroiluminacion que comprende un dispositivo de visualizacion electronico, tal como una pantalla LCD, y un conjunto de retroiluminacion dispuesto detras del dispositivo de visualizacion electronico y que comprende una matriz de LED para iluminar el dispositivo de visualizacion electronico. El sistema de formacion de imagenes comprende tambien un controlador de retroiluminacion para ajustar la cantidad de corriente proporcionada al conjunto de retroiluminacion y la correspondiente intensidad de luz de los LED; y un sensor de fotones o matriz de sensores, dispuesto en un lado del dispositivo de visualizacion electronico o posiblemente por detras. Mediciones TOF pueden ser realizadas usando un metodo pulsado, en las que es medido el tiempo directo de propagacion en ambos sentidos de un impulso de haz de luz. En este metodo, los LED del conjunto de retroiluminacion son modulados con impulsos muy cortos o un tren de impulsos muy cortos, por ejemplo de algunos cientos de picosegundos.
Sumario
Es proporcionado un dispositivo proyector de video que logra los objetivos de tamano compacto y consumo de energfa y coste reducidos. Una luz de fondo del dispositivo proyector de video es modulada para crear impulsos de luz que pueden ser detectados por una camara de luz visible y transformados en datos distancia/profundidad relativos a un campo de vision. Este tipo de modulacion no afecta significativamente a la calidad de la imagen de la luz proyectada y puede ser realizada en una variedad de dispositivos moviles o no moviles que son utilizados para varias aplicaciones que son ejecutadas en el dispositivo o en un anfitrion conectado al dispositivo.
En una realizacion, un dispositivo proyector de video incluye una fuente de luz, tal como la luz de fondo de un proyector, que emite luz visible. En una porcion de proyector del dispositivo proyector de video esta previsto un controlador que modula la luz visible emitida desde la fuente de luz. Tambien pueden estar previstos uno o mas paneles LCD transmisores de luz, que tienen pfxeles controlables individualmente para conferir la informacion de video de color a la luz visible de la fuente de luz. Esta previsto al menos un componente optico que proyecta la luz visible codificada en color en un campo de vision. Por ejemplo, pueden ser utilizadas una o mas lentes. En una porcion de sensor del dispositivo proyector de video estan previstos uno o mas sensores, tales como dispositivos de carga acoplada (CCD) que detectan la luz visible, incluyendo la luz visible que es reflejada desde al menos un objeto en el campo de vision, de modo que el sensor comprende una matriz de pfxeles. Ventajosamente, el sensor puede ser un CCD convencional del tipo que es utilizado en las camaras digitales. Esta previsto al menos un circuito de control que proyecta tramas de video. Una trama puede incluir una subtrama sincronizada, en la que la fuente de luz es accionada en un modo pulsado mientras que el sensor es operado en un modo sincronizado, despues de lo cual la fuente de luz es accionada en un modo continuo mientras que el sensor es lefdo para obtener valores de intensidad de luz. El al menos un circuito de control obtiene datos de profundidad relativos al por lo menos un objeto en el campo de vision en base a los valores de intensidad de luz, utilizando un principio de tiempo de vuelo. Los datos de profundidad pueden ser proporcionados en forma de un mapa de profundidad del campo de vision, por ejemplo.
Este sumario esta previsto para introducir de una forma simplificada una seleccion de conceptos que se describiran con mas detalle despues en la descripcion. Este sumario no pretende identificar las caractensticas clave o caractensticas esenciales de la materia reivindicada, ni esta destinado a ser utilizado para limitar el alcance de la materia reivindicada.
Breve descripcion de los dibujos
En los dibujos, elementos con numeros similares se corresponden entre sf.
La Fig. 1 representa una vista lateral de un ejemplo de entorno que involucra un dispositivo proyector de video.
2
5
10
15
20
25
30
35
40
45
La Fig. 2 representa una vista superior del ejemplo de entorno de la Fig. 1.
La Fig. 3 representa un ejemplo de diagrama de bloques del dispositivo proyector de video de la Fig. 1.
La Fig. 4A representa un proceso que utiliza un dispositivo proyector de video.
La Fig. 4B representa un ejemplo de un proceso que implica subtramas que pueden ser utilizadas en la etapa 400 de la Fig. 4A.
La Fig. 4C representa otro ejemplo de un proceso que implica subtramas que puede ser utilizadas en la etapa 400 de la Fig. 4A.
La Fig. 5A representa un ejemplo de un proceso para proporcionar una subtrama sincronizada como se establece en la etapa 410 de la Fig. 4B.
La Fig. 5B representa un ejemplo de un proceso para proporcionar una subtrama no sincronizada como se establece en la etapa 412 de la Fig. 4b.
La Fig. 5C representa un ejemplo de un proceso para proporcionar una subtrama de fondo como se establece en la etapa 414 de la Fig. 4B.
La Fig. 5D representa un ejemplo de un proceso para proporcionar una subtrama de color como se establece en la etapa 416 de la Fig. 4B.
La Fig. 6A representa un ejemplo de un proceso para proporcionar una subtrama sincronizada como se establece en la etapa 420 de la Fig. 4C.
La Fig. 6B representa un ejemplo de un proceso para proporcionar una subtrama no sincronizada como se establece en la etapa 422 de la Fig. 4C.
La Fig. 7A representa una salida de un proyector que corresponde al proceso de la Fig. 4B.
La Fig. 7B representa una entrada a un sensor basada en la salida de proyector de la Fig. 7A.
La Fig. 7C representa una trama de no deteccion de profundidad en la que se produce proyeccion continua.
La Fig. 7D representa un ejemplo de una secuencia de tramas que proporciona alternativamente tramas con intensidades de luz mas bajas y mas altas.
La Fig. 7E representa un ejemplo de una secuencia de tramas que proporciona alternativamente tramas con periodos de trama mas largos y mas cortos.
La Fig. 8A representa una salida de un proyector que corresponde al proceso de la Fig. 4C.
La Fig. 8B representa una entrada a un sensor basada en la salida de proyector de la Fig. 8A.
La Fig. 9A representa la luz pulsada que es emitida desde un proyector usando formas de onda cuadradas.
La Fig. 9B representa luz pulsada que es la entrada a un sensor en base a la salida de proyector de la Fig. 9A.
La Fig. 10A representa luz pulsada que es emitida desde un proyector usando formas de onda triangulares.
La Fig. 10B representa luz pulsada que es la entrada a un sensor en base a la salida de proyector de la Fig. 10A. Descripcion detallada
Es proporcionado un dispositivo proyector de video que es util en varias aplicaciones. Un ejemplo de aplicacion proyecta una imagen sobre una superficie, de modo que la imagen tiene un numero de porciones de imagen seleccionables como elemento de menu en una interfaz de usuario. Un usuario puede hacer por ejemplo un gesto utilizando la mano para seleccionar una de las porciones de imagen. Una entrada de control correspondiente puede ser proporcionada a la aplicacion para seleccionar nuevo contenido de video o imagen fija, modificar el contenido de video o imagen fija proyectado actualmente, jugar un juego, iniciar una comunicacion, por ejemplo una llamada telefonica, etc. En un enfoque, la imagen proyectada sobre la superficie se convierte en una pantalla tactil. En otro ejemplo de aplicacion es detectada y registrada la forma 3D de un objeto en el campo de vision. El dispositivo proyector de video utiliza ventajosamente un proyector de luz visible para proyectar luz continua en un patron deseado en el campo de vision, como por ejemplo sobre una superficie u objeto en el campo de vision, mientras que tambien proporciona luz pulsada para su uso en la obtencion de datos de profundidad utilizando un principio de tiempo de vuelo. Los datos de profundidad pueden ser obtenidos accionando periodicamente una fuente de luz para proporcionar impulsos de luz visible durante un penodo limitado, relativo a un penodo en el que es proporcionada una salida de luz continua, de manera que la calidad de la imagen no se reduce notablemente. Durante el penodo
3
5
10
15
20
25
30
35
40
45
50
55
60
de tiempo limitado, un sensor del dispositivo proyector de v^deo esta sincronizado para detectar impulsos de luz visible reflejada desde el campo de vision. El sensor tambien tiene la capacidad de obtener datos de color del campo de vision, por ejemplo para obtener una imagen fija, por ejemplo una fotograffa, o imagenes de video, por ejemplo un v^deo, como una camara digital tfpica.
Los elementos que se utilizan comunmente en un dispositivo proyector de video pueden ser usados de una manera nueva para conseguir una funcionalidad adicional, transformando el dispositivo en un dispositivo de deteccion de datos 3d. Por ejemplo, pueden ser obtenidos datos de profundidad 3D para un objeto que esta cerca de una superficie sobre la que es proyectada la imagen de video.
El proyector de video tambien puede operar en un modo de solo deteccion, en el que se proporcionan impulsos de luz visible pero no se proporciona salida de luz continua. En otra opcion, para incrementar el contraste de color, la duracion de la trama puede ser alargada y/o la intensidad de la luz puede ser incrementada cuando el proyector de video funciona en un modo de proyeccion y deteccion, con respecto a cuando el proyector de video funciona en un modo de solo proyeccion.
La Fig. 1 representa una vista lateral de un ejemplo de entorno que implica un dispositivo proyector de video. Como se menciono al principio, las camaras de profundidad se han vuelto cada vez mas comunes. La tecnologfa de deteccion de profundidad puede ser utilizada en otros productos, tales como dispositivos proyectores de video moviles u otros de factor de forma pequeno. Los dispositivos proyectores de video incluyen pequenos dispositivos de mano a los que a veces se hace referencia como picoproyectores, proyectores moviles y proyectores de bolsillo. Tales dispositivos pueden incluir hardware miniaturizado y software que puede proyectar imagenes digitales sobre cualquier superficie de visualizacion en las inmediaciones, como por ejemplo una pared plana o una mesa, o en general cualquier superficie/objeto con forma. Los dispositivos proyectores de video pueden incluir otros dispositivos que no necesariamente puedan ser sujetados por la mano o portatiles, incluyendo dispositivos que descansan sobre una superficie superior de una mesa y dispositivos que estan montados en una pared u otra superficie.
Una aplicacion es para la visualizacion de una imagen fija o de video y permitir que un usuario modifique la imagen mediante movimientos a traves de gestos con las manos. Por ejemplo, un gesto de mover las manos o los dedos de una mano, ademas, puede tener como resultado que la imagen proyectada se magnifique/se acerque, y un movimiento opuesto puede tener como resultado que la imagen proyectada se haga cada vez mas pequena/se aleje. El usuario puede actuar para elevar o de otra forma seleccionar un objeto de la imagen proyectada, de manera que la proyeccion del objeto cambie cuando el objeto esta seleccionado. Un gesto de ondulacion o de agitar la mano hacia los lados puede tener como resultado el desplazamiento de un menu o la deteccion o inicio de una visualizacion de video o imagen fija. Puede ser creada una experiencia de interfaz natural de usuario (NUI), en la que el usuario interactua con objetos proyectados como si fueran objetos ffsicos reales. Son posibles muchas otras aplicaciones. Mas informacion relativa al seguimiento de una porcion de una persona, una persona entera, u otro objeto se puede encontrar, por ejemplo, en el documento US 2010/0197399, publicado el 5 de agosto de 2010, titulado “Visual Target Tracking" (Seguimiento de objetivo visual), y el documento US 2010/0194872, publicado el 5 agosto de 2010, titulado "Body Scan" (Escaner corporal), cada uno de las cuales se incorpora como referencia en el presente documento.
En la Fig. 1 esta representado un dispositivo proyector de video 100 que descansa sobre la superficie superior de una mesa 102. Se usa una lente de proyector 100 para transmitir o proyectar luz visible en un campo de vision que en este ejemplo esta limitado por los rayos de luz 112 y 114. Una porcion de la luz proyectada es reflejada, como esta representado por una region limitada por los rayos de luz 122 y 124, y detectada por un sensor en el dispositivo proyector de video 100, a traves de una lente de camara 120. Un usuario 130 coloca el brazo o la mano 132 en el campo de vision proyectado, de manera que la presencia de la mano y cualquier movimiento de la mano pueden ser detectados por el sensor.
La Fig. 2 representa una vista desde arriba del ejemplo de entorno de la Fig. 1. Una region de imagen 150 es proyectada por el dispositivo proyector de video en la superficie superior de la mesa 102. La region de la imagen 150 incluye porciones de imagen 152, 154, 156 y 158, por ejemplo. El usuario puede seleccionar la porcion de imagen 152 colocando la mano 132 sobre la porcion de imagen 152. La seleccion de la porcion de imagen 152 puede ser activada de diferentes maneras. En un enfoque, la presencia de la mano sobre la porcion de imagen 152 durante un penodo mmimo de tiempo, por ejemplo 1-2 segundos, puede activar la seleccion de la porcion de imagen 152. En otro enfoque, se requiere que el usuario realice un gesto, por ejemplo la colocacion de la mano por encima de la porcion de imagen 152, seguido del descenso de la mano hacia la porcion de imagen 152, o la elevacion de la mano lejos de la porcion de imagen 152. Existen muchas otras posibilidades. Puede estar previsto un ejemplo similar en el que la imagen se proyecta sobre una superficie vertical o en otra superficie que no es necesariamente plana.
La Fig. 3 representa un ejemplo de diagrama de bloques del dispositivo proyector de video de la Fig. 1. Los componentes pueden estar previstos en una carcasa unica. El dispositivo proyector de video 300 incluye una fuente de luz 318, tal como una luz de fondo, que puede ser activada (encendida o conectada) para emitir luz visible continua o pulsada. La fuente de luz 318 tambien puede ser desactivada (apagada o desconectada) de manera que emita luz no visible, para reducir el consumo de energfa. La fuente de luz es modulada durante la deteccion de profundidad y se mantiene activada durante la proyeccion de video. Si esta apagada, esto significa que el sistema
5
10
15
20
25
30
35
40
45
50
55
60
solo puede capturar imagenesMdeo de color. En un posible enfoque, la fuente de luz 318 puede incluir uno o mas diodos emisores de luz (LED). Varios otros componentes opticos que no estan representados son tambien empleados tipicamente. En un enfoque, cuando se utiliza una fuente de luz blanca, tal como una lampara de haluro metalico, la fuente de luz comprende una luz blanca que mediante un prisma es separada en tres componentes de color (por ejemplo: rojo, verde y azul) y cada componente de color pasa a traves de un modulador separado. La luz modulada de cada color es posteriormente combinada y proyectada utilizando componentes opticos apropiados. En otro enfoque, la luz blanca es proporcionada a un modulador unico a traves de un componente, tal como una rueda de colores, para que por ejemplo los componentes rojo, verde y azul sean proporcionados al modulador de una manera multiplexada en el tiempo. En otro enfoque, por ejemplo cuando se utilizan LED, cada grupo de LED emite un color diferente, tal como rojo, verde y azul, cada componente de color pasa a traves de un modulador separado, y la luz modulada de cada color es posteriormente combinada y proyectada utilizando componentes opticos apropiados.
Otra opcion para la fuente de luz es el chip “Digital Light Processing” (DLP)® (procesamiento digital de la luz) (Texas Instruments, Inc.), que contiene una matriz rectangular de hasta 2 millones de espejos microscopicos montados de forma articulada que pueden reflejar una imagen digital sobre una pantalla u otra superficie. La modulacion del chip DLP es similar a la modulacion de un chip LCD. En una configuracion de un solo chip DLP, la luz blanca pasa a traves de un filtro de color, haciendo que el rojo, verde, azul e incluso colores primarios adicionales, tales como amarillo, cian, magenta y otros, brillen en secuencia sobre la superficie del chip DLP. La conmutacion de los espejos, y la proporcion de tiempo que estan "activados" o "desactivados" es coordinada de acuerdo al color que brilla sobre ellos. A continuacion, los colores secuenciales son mezclados para crear una imagen a todo color que es proyectada.
Un panel LCD 320 codifica la luz emitida desde la fuente de luz con la informacion de color de video, para proporcionar luz visible codificada en color que es proyectada a traves de al menos un componente optico, tal como una lente de proyeccion 322. Pueden estar previstos uno o mas paneles LCD transmisores de luz, por ejemplo, como mediante el uso de chips LCD transmisores de luz. El panel LCD puede incluir una o mas matrices de pfxeles transmisores de luz, donde cada pixel puede ser controlado individualmente, en respuesta a un circuito de control de proyector 310. Los pfxeles del panel LCD pueden ser controlados para conferir datos de imagen, tales como una imagen del color deseado que ha de ser proyectada.
La lente de proyeccion 322 y/o la lente del sensor 360 pueden ser controladas mediante el circuito de control de proyector 310, tal como para proporcionar una funcion de enfoque automatico, en base a la informacion de profundidad que es proporcionada al circuito de control de proyector 310 desde un circuito de control de sensor 340. Con una profundidad o intervalo de profundidades conocidas de uno o mas objetos en el campo visual puede ser ajustado un enfoque optimo.
El circuito de control de proyector 310 puede incluir uno o mas procesadores, representados por el procesador 312, uno o mas componentes de memoria, representados por el componente de memoria 314 y uno o mas controladores, representados por el controlador 316. El procesador puede ser, por ejemplo, un microprocesador que ejecuta las instrucciones que estan almacenadas en la memoria 314 para proporcionar una funcionalidad tal como se describe en el presente documento. La memoria 314 puede almacenar instrucciones que son ejecutadas por el procesador 312, asf como almacenar datos de imagen para controlar el panel LCD 320 para proporcionar una imagen proyectada deseada. Por ejemplo, la memoria 314 puede incluir memoria de acceso aleatorio (RAM), memoria de solo lectura (ROM), memoria cache, memoria flash, un disco duro, o cualquier otro medio de almacenamiento legible por ordenador tangible adecuado. El componente de memoria 314 puede ser un componente separado en comunicacion con el procesador 312 y/o el circuito de control de proyector 310 por ejemplo a traves de un bus. O bien, el componente de memoria 314 puede estar integrado en el procesador 312 y/o el circuito de control de proyector 310. La memoria 314 es un medio de almacenamiento legible por ordenador tangible que tiene software legible por ordenador incorporado en el mismo para la programacion de al menos un procesador 312 para llevar a cabo un metodo para procesar datos de imagen en un dispositivo proyector de video como se describe en el presente documento.
El controlador 316 comunica con la fuente de luz para accionarla o modularla tal como se describe en el presente documento. Por ejemplo, la corriente y/o el voltaje a la fuente de luz pueden ser modulados por el controlador, de manera que la luz emitida sea modulada. El controlador puede ser un controlador personalizado que soporte tanto un modo de impulso rapido como un modo de iluminacion continua. El circuito de control de proyector puede controlar filas y columnas de pfxeles del panel LCD.
Una interfaz de usuario 330 puede incluir controles, tales como botones o una pantalla tactil, que permitan al usuario introducir comandos para controlar el dispositivo proyector de video. Ejemplos de comandos incluyen iniciar o detener una secuencia de tramas del proyector de video, iniciar o detener una proyeccion de una imagen fija, por ejemplo una unica trama, e iniciar o detener un modo de deteccion de profundidad. En un enfoque, el usuario tiene la opcion de la captura de una sola trama de datos de profundidad, similar a una instantanea, en un modo de solo deteccion. El usuario puede ajustar, por ejemplo, un modo de proyeccion y de deteccion de profundidad, un modo de proyeccion y no deteccion de profundidad, o un modo de deteccion de profundidad pero no proyeccion. El usuario tambien puede realizar ajustes que afecten a una respuesta o sensibilidad en el seguimiento de un objeto en el
5
10
15
20
25
30
35
40
45
50
55
campo de vision. Diferentes usuarios pueden preferir diferentes niveles de sensibilidad de seguimiento en diferentes situaciones cuando interactuan con una imagen proyectada. El usuario tambien puede realizar ajustes tales como el brillo del proyector.
Una porcion de sensor del dispositivo proyector de video 300 incluye una lente de sensor 360 a traves de la cual pasa la luz visible desde el campo de vision y alcanza uno o mas sensores, representados por un sensor 350. La luz visible puede incluir reflexiones de la luz proyectada, asf como luz ambiente de fondo, tal como de fuentes de luz artificial que no sean del dispositivo proyector de video, por ejemplo lamparas electricas, y fuentes de luz natural, por ejemplo la luz del sol en una habitacion. El sensor puede incluir uno o mas CCD, por ejemplo que tengan pfxeles sensibles a la luz. Cada pixel genera carga, y la cantidad de carga acumulada o integrada puede ser lefda como una indicacion de la intensidad de luz que ha alcanzado el pixel. El sensor puede funcionar en un modo sincronizado o no sincronizado, bajo el control de un circuito de control de sensor 340.
En una implementacion de un funcionamiento sincronizado, los pfxeles son activados y desactivados alternativamente en una secuencia controlada. A un tiempo en el que los pfxeles estan activados se hace referencia como un penodo sincronizado. Cuando un pixel esta activado puede detectar luz y acumular carga. Cuando un pixel esta desactivado no puede detectar luz ni acumular carga, incluso si la luz incide sobre el pixel. En otra implementacion del funcionamiento sincronizado puede estar previsto un modulador separado (no mostrado) que este entre el sensor 350 y la lente 360, y que tenga la capacidad de bloquear o dejar pasar la luz, como un obturador. El modulador o sensor pueden actuar como un obturador que puede ser abierto o cerrado segun se desee.
En una implementacion de operacion no sincronizada, los pfxeles de los sensores son activados de modo que acumulan carga en un penodo de tiempo no interrumpido, despues de lo cual la cantidad de carga acumulada es lefda por el circuito de control de sensor 340.
El circuito de control de sensor 340 puede incluir uno o mas procesadores, representados por el procesador 342, y uno o mas componentes de memoria, representados por el componente de memoria 348. El procesador puede ser por ejemplo un microprocesador que ejecuta las instrucciones que estan almacenadas en la memoria 348 para proporcionar una funcionalidad tal como se describe en el presente documento. La memoria 348 puede almacenar instrucciones que son ejecutadas por el procesador 312, asf como almacenar lecturas y datos de imagen del sensor. La memoria 348 puede ser configurada de manera similar a la memoria 314 como se discutio anteriormente. La memoria 348 es un medio de almacenamiento legible por ordenador tangible que tiene un software legible por ordenador incorporado en el mismo para la programacion de al menos un procesador 342 para realizar un metodo para procesar datos de imagen en un dispositivo proyector de video como se describe en el presente documento.
El procesador 342 puede incluir una porcion de procesamiento de datos de profundidad 344 que recibe las lecturas del sensor y las traduce en datos de profundidad para cada pixel del sensor. Por ejemplo, una lectura de un pixel puede indicar una cantidad de carga acumulada y esta puede ser correlacionada con una intensidad de luz en base a las caractensticas del sensor. Por otra parte, la temporizacion de la luz detectada de un pixel puede ser correlacionada con impulsos de luz desde el proyector, cuando el proyector funciona en un modo pulsado y el sensor funciona en un modo sincronizado. Esto permite que un valor de profundidad sea asociado con el pixel en base a principios de tiempo de vuelo. Para obtener los valores de profundidad se necesitan dos mediciones: sincronizada y no sincronizada. Un conjunto de valores de profundidad de algunos o todos los pfxeles del sensor proporciona un mapa de profundidad para una trama de datos de imagenes detectadas. El mapa de profundidad puede ser almacenado en la memoria 348, por ejemplo. El circuito de control de sensor 340 puede comunicar con el circuito de control de proyector para obtener datos de temporizacion que utiliza la porcion de procesamiento de datos de profundidad 344 para calcular los valores de profundidad. Opcionalmente, un circuito de control central gestiona el circuito de control de proyector 310 y el circuito de control de sensor 340, incluyendo proporcionar datos de temporizacion para el establecimiento de un modo pulsado o continuo en el circuito de control de proyector 310, y para ajustar un modo sincronizado o no sincronizado en el circuito de control de sensor 340.
El procesador 342 puede incluir una porcion de procesamiento de datos de color 346 que recibe los datos de pfxeles de color desde el sensor, de manera similar a la forma en que opera un sensor de una camara fija o video. De esta manera, las imagenes de color del campo de vision del sensor pueden ser obtenidas y almacenadas en la memoria 348, por ejemplo.
El procesador 342 puede tambien incluir una biblioteca de gestos 347, tal como una coleccion de filtros de gesto, cada uno con una informacion relativa a un gesto que puede ser realizado por un usuario, incluyendo gestos con las manos. Mediante la comparacion de un movimiento detectado con cada filtro puede ser identificado un gesto especificado o movimiento que es realizado por el usuario.
La Fig. 4A representa un proceso que utiliza un dispositivo proyector de video. La etapa 400 incluye proporcionar una trama de datos de imagen mediante la proyeccion de luz visible en un campo de vision mientras que es lefdo el sensor para obtener datos de profundidad. La etapa 402 incluye proporcionar una entrada de control a una aplicacion en base a los datos de profundidad. La etapa de decision 404 determina si va a ser proyectada una trama siguiente. Si una trama siguiente va a ser proyectada, el proceso se repite comenzando en la etapa 400. Si no va a
5
10
15
20
25
30
35
40
45
50
55
ser proyectada una trama siguiente, el proceso termina en la etapa 406. Ejemplos de implementaciones de la etapa 400 son tratados a continuacion.
La Fig. 4B representa un ejemplo de un proceso que implica subtramas que pueden ser utilizadas en la etapa 400 de la Fig. 4A. En general, la luz emitida por la fuente de luz puede ser modulada de acuerdo con una secuencia sincronizada del sensor. Por ejemplo, una posible implementacion del sensor es el sensor CCD SONY® modelo ICX424AQ. El ICX424AL es un sensor de imagen de estado solido CCD de 6 mm de diagonal (tipo 1/3) con transferencia interlmea, con una matriz de pfxeles cuadrada. El barrido progresivo permite que todas las senales de pixel salgan de forma independiente dentro de aproximadamente 1/60 de segundo. El chip tiene un obturador electronico con tiempo de almacenamiento de carga variable que hace que sea posible realizar imagenes fijas de trama completa sin un obturador mecanico. Soporta varios modos/resoluciones de pfxeles que incluyen: Adaptador Grafico de Video (VGA) (640 * 480 @ 60 Hz), quarter-VGA (QVGA) (320 * 240 @ 120 Hz) y quarter-QVGA (QQVGA) (160 * l20 @ 240 Hz). Con referencia tambien a Figs. 7A y 7B, se supone que se utiliza el modo QQVGA, que incluye un penodo de proyeccion de 33 ms o el penodo de trama completo que es dividido en cuatro secciones o subtramas. En cada subtrama, el sensor es expuesto a la luz y son lefdos valores de intensidad de luz en subtramas seleccionadas.
Una trama completa puede ser definida por una trama de datos de pfxeles que van a ser proyectados. En las diferentes subtramas en las que son proyectados los datos de pfxeles, en un modo pulsado o continuo, pueden ser utilizados los mismos datos de pfxeles de la trama. Aunque, si la imagen proyectada tiene secciones en negro en ella, no vamos a ser capaces de medir la profundidad si la luz pulsada muestra la misma imagen. Esto se puede solucionar de varias maneras que incluyen cambiar el nivel de negro (por lo que se proyectara algo). Subtramas son imagenes que cuando se combinan proporcionan la salida completa de una trama. Por ejemplo, las imagenes sincronizadas y no sincronizadas son subtramas. En nuestra notacion, una trama contiene todas las subtramas en un ciclo de deteccion. Los datos de pfxeles proyectados son independientes de la modulacion de fuente de luz (aunque sincronizados con ella). El controlador de la fuente de luz generalmente no tiene acceso a los datos de pfxeles proyectados.
La etapa 410 proporciona una subtrama sincronizada usando luz pulsada seguida de luz continua. En esta subtrama, los impulsos son enviados por el proyector y una imagen sincronizada es detectada por el sensor, se permite por ejemplo que el sensor detecte la luz solo durante intervalos limitados que corresponden a cada impulso transmitido. El proyector proporciona un modo de iluminacion continua despues de que se ha utilizado la iluminacion pulsada. La subtrama sincronizada puede producir valores de intensidad de luz que se correlacionan con los datos de profundidad de uno o mas objetos en el campo de vision.
La etapa 412 proporciona una subtrama no sincronizada usando luz pulsada seguida de luz continua. En esta subtrama, los impulsos son enviados de nuevo por el proyector, pero una imagen no sincronizada es detectada por el sensor. Usualmente, en el modo no sincronizado el sensor se comporta de manera similar a en el modo sincronizado, siendo la diferencia principal el tiempo que el obturador se abre y se cierra. En cualquier caso, para aumentar la robustez a la luz ambiente, el sensor esta abierto en intervalos de tiempo que corresponden a cada impulso transmitido. La subtrama no sincronizada puede producir datos de reflectividad de uno o mas objetos en el campo de vision.
La etapa 414 proporciona una subtrama de fondo utilizando nada de luz seguida de luz continua. En esta subtrama, inicialmente no es enviada luz por el proyector, de manera que la luz de fondo es detectada por el sensor. Posteriormente, es proporcionada luz continua por el proyector. La subtrama de fondo puede producir datos con respecto a la luz de fondo en el campo de vision. La luz de fondo no se origina desde el dispositivo proyector de video y puede proceder de fuentes artificiales o naturales.
La etapa 416 proporciona una subtrama de color opcional usando luz continua. En esta subtrama, el sensor actua como una camara mediante la deteccion y almacenamiento de datos de color del campo de vision. Los datos de color podnan ser una imagen RGB estandar, por ejemplo. En la subtrama de color, la luz puede ser accionada en un modo continuo mientras que el sensor esta activo.
Hay que tener en cuenta que el orden de las subtramas puede variar. En un enfoque, se proporciona la subtrama sincronizada, seguida de la subtrama no sincronizada, seguida por la subtrama de fondo, seguida por la subtrama de color. Sin embargo, no se requiere este orden. Por otra parte, las diferentes subtramas pueden ser proporcionadas con diferentes frecuencias de ocurrencia. Por ejemplo, la subtrama sincronizada puede ser proporcionada cada n1 > 1 tramas, la subtrama no sincronizada puede ser proporcionada cada n2 > 1 tramas, la subtrama de fondo se puede proporcionar cada n3 > 1 tramas, y la subtrama de color se puede proporcionar cada n4 > 1 tramas, si son utilizadas; n1, n2, n3 y n4 son numeros enteros positivos. Por ejemplo, se supone que es suficiente proporcionar datos de profundidad para cada dos tramas, por lo que n1 = n2 = n3 = 2 y n4 = 1. Cuando una o mas subtramas no estan previstas en una trama, las porciones restantes de la trama pueden ser extendidas para llenar el periodo de trama. Por ejemplo, para una trama que incluya solo la subtrama de color, la subtrama de color es extendida a los 33 ms completos. O bien, la duracion de la trama puede ser acortada. En un enfoque, el resto del tiempo de la trama puede ser utilizado para la proyeccion continua con el fin de aumentar el contraste del
5
10
15
20
25
30
35
40
45
50
55
60
video proyectado. Para detectar la profundidad no es deseable extender el tiempo de exposicion. Para el color, por otro lado, podna ser deseable en escenas con poca luz.
En otro ejemplo, si no necesitamos datos de color, puede estar prevista una segunda deteccion de fondo en la que una trama incluye una subtrama de fondo, una subtrama sincronizada, una subtrama no sincronizada y una subtrama de fondo, en ese orden.
La Fig. 4C representa otro ejemplo de un proceso que implica subtramas que pueden ser utilizadas en la etapa 400 de la Fig. 4A. En este caso se lleva a cabo solo deteccion de profundidad sin proyeccion continua en el campo de vision. La etapa 420 incluye proporcionar una subtrama sincronizada utilizando luz pulsada, que no es seguida por luz continua. La etapa 422 incluye proporcionar una subtrama no sincronizada usando luz pulsada, que de nuevo no es seguida por luz continua. La luz visible pulsada generalmente no sera perceptible por el ojo humano, puesto que el penodo de iluminacion es muy corto. Tambien puede sertomada una imagen de fondo (una imagen sin impulsos) (etapa 424). En este caso, la imagen de fondo y la imagen de color pueden ser la misma imagen ya que no hay diferencia en las condiciones de iluminacion. Puede tambien ser proporcionada una subtrama de color (etapa 426), que es la misma que la subtrama de fondo. Una ventaja de detectar profundidad sin proyeccion continua es que el consumo de energfa se reduce. Se hace referencia a las Figs. 8A y 8B para mas detalles.
La Fig. 5A representa un ejemplo de un proceso para proporcionar una subtrama sincronizada como se establece en la etapa 410 de la Fig. 4B. La etapa 500 comienza con una subtrama sincronizada que utiliza luz pulsada seguida de luz continua desde el proyector. Las etapas 502 y 503 pueden producirse simultaneamente, al menos en parte. En un enfoque, la fuente de luz emite continuamente luz visible. En la etapa 502, la fuente de luz del proyector es accionada en un modo pulsado, de manera que es emitida luz visible pulsada en el campo de vision. Las Figs. 9A y 10A proporcionan ejemplos de formas de onda para la luz pulsada. Vease tambien el tiempo de 0 a 2 ms en la Fig. 7A. En la etapa 503, el sensor es operado en un modo sincronizado, mientras que son detectados impulsos reflejados (asf como luz de fondo). Las Figs. 9B y 10B proporcionan ejemplos de formas de onda para la luz detectada. Vease tambien el tiempo de 0 a 2 ms en la Fig. 7B.
Las etapas 504 y 505 pueden producirse simultaneamente, al menos en parte. En la etapa 504, la fuente de luz es accionada en un modo continuo, de modo que es emitida luz visible continua en el campo de vision. Vease el tiempo de 2-8 ms en la Fig. 7A. En la etapa 505, el sensor es lefdo para obtener valores de intensidad de luz. Vease el tiempo de 2-8 ms en la Fig. 7B. Durante este periodo de lectura, no es detectada luz adicional por el sensor. Los valores de intensidad de luz pueden ser almacenados para su uso posterior en la determinacion de valores de profundidad. Por ejemplo, los valores de intensidad de luz pueden ser normalizados en base a los valores de intensidad de luz que son obtenidos en la subtrama no sincronizada. Esta normalizacion se realiza despues de restar la subtrama de fondo de ambas subtramas, sincronizada y no sincronizada. Los valores de intensidad de luz normalizados pueden entonces ser utilizados para determinar valores de profundidad.
La Fig. 5B representa un ejemplo de un proceso para proporcionar una subtrama no sincronizada como se establece en la etapa 412 de la Fig. 4B. La etapa 510 comienza con una subtrama no sincronizada que utiliza luz pulsada seguida de luz continua desde el proyector. Las etapas 512 y 513 pueden producirse simultaneamente, al menos en parte. En la etapa 512, la fuente de luz es accionada en un modo pulsado, de manera que es emitida luz visible pulsada en el campo de vision. Las Figs. 9A y 10A proporcionan ejemplos de formas de onda para la luz pulsada. Vease tambien el tiempo 8 a 10 ms en la Fig. 7a. En la etapa 513, el sensor es operado en un modo no sincronizado mientras que son detectados impulsos reflejados (asf como luz de fondo). Las Figs. 9B y 10B proporcionan ejemplos de formas de onda para la luz detectada. Vease tambien el tiempo de 8 a 10 ms en la Fig. 7B.
Las etapas 514 y 515 pueden producirse simultaneamente, al menos en parte. En la etapa 514, la fuente de luz es accionada en un modo continuo, de modo que es emitida luz visible continua en el campo de vision. Vease el tiempo 10-16 ms en la Fig. 7A. En la etapa 515, el sensor es lefdo para obtener valores de intensidad de luz que indican reflectividad. Vease el tiempo 10-16 ms en la Fig. 7B. En la etapa 516, los valores de intensidad de luz que fueron determinados en la etapa 505 de la Fig. 5A son ajustados, por ejemplo normalizados, en base a los valores de intensidad de luz de la etapa 515. En general, varias propiedades afectan a la cantidad de luz que alcanza cada pixel del sensor, incluyendo la distancia que recorre la luz, la reflectividad del objeto, y la direccion normal del objeto que la luz refleja de el. Este ajuste tiene en cuenta la reflectividad y la direccion normal. Durante la subtrama no sincronizada, para cada impulso, se cierra el obturador para el sensor en un tiempo espedfico, despues de devolver toda la luz que es proyectada en el campo de vision y reflejada de vuelta al sensor. Por el contrario, con la imagen sincronizada, no esperamos a que todos los impulsos de luz se reflejen de nuevo al sensor. Si una cantidad relativamente alta de luz se refleja de nuevo debido a la reflectividad y/o las direcciones normales, se tendra un valor relativamente alto de intensidad de luz no sincronizada. Los valores de intensidad de luz de la etapa 505 pueden ser normalizados para crear valores de profundidad dividiendo por los valores de intensidad de luz correspondientes de la etapa 515.
La Fig. 5C representa un ejemplo de un proceso para proporcionar una subtrama de fondo como se establece en la etapa 414 de la Fig. 4B. La etapa 520 comienza con una subtrama de fondo que utiliza nada de luz seguida de luz continua desde el proyector. Las etapas 522 y 523 pueden ocurrir simultaneamente, al menos en parte. En la etapa 522, la fuente de luz no es accionada de manera que nada de luz visible sea emitida en el campo de vision. Vease el
5
10
15
20
25
30
35
40
45
50
55
tiempo 16-18 ms en la Fig. 7A. En la etapa 523, el sensor es operado en un modo sincronizado mientras que es detectada luz de fondo. La luz de fondo tambien podna ser detectada en un modo no sincronizado. Un modo sincronizado "simula" la forma en que la luz de fondo es recibida durante las fases de iluminacion activa. Vease el tiempo 16-18 ms en la Fig. 7B.
Las etapas 525 y 526 pueden producirse simultaneamente, al menos en parte. En la etapa 525, la fuente de luz es accionada en un modo continuo, de modo que es emitida luz visible continua en el campo de vision. Vease el tiempo 18-24 ms en la Fig. 7A. En la etapa 526, el sensor es lefdo para obtener valores de intensidad de luz que indican una cantidad de luz de fondo. Vease el tiempo 18-24 ms en la Fig. 7B. En la etapa 527, los valores de intensidad de luz que fueron determinados en la etapa 505 de la Fig. 5A o en la etapa 516 de la Fig. 5B son ajustados en base a los valores de intensidad de luz de la etapa 526. El ajuste puede implicar restar los valores de intensidad de la luz de fondo. Hay que tener en cuenta que el ajuste de la reflectividad debena hacerse despues del ajuste de la luz de fondo. La normalizacion de la imagen sincronizada por la imagen no sincronizada es utilizada para proporcionar datos de profundidad. La normalizacion usando la imagen de fondo puede ser omitida, por ejemplo cuando se opera el proyector en la oscuridad. En la etapa 528, los valores de profundidad son determinados en base a los valores de intensidad de luz ajustada.
La Fig. 5D representa un ejemplo de un proceso para proporcionar una subtrama de color como se establece en la etapa 416 de la Fig. 4B. La etapa 530 comienza una trama de color que utiliza luz continua desde el proyector. Las etapas 532 y 533 pueden producirse simultaneamente, al menos en parte. En la etapa 532, la fuente de luz del proyector es accionada en un modo continuo, de modo que es emitida luz visible continua en el campo de vision. Vease el tiempo 24-26 ms en la Fig. 7A. En la etapa 533, el sensor es operado en un modo de deteccion de color, que es un modo de deteccion de camara digital estandar, mientras que es detectada la luz reflejada (asf como la luz de fondo). Vease el tiempo 24-26 ms en la Fig. 7B. En la etapa 534, el sensor es lefdo para obtener valores de intensidad de luz que indican datos de color.
La Fig. 6A representa un ejemplo de un proceso para proporcionar una subtrama sincronizada como se establece en la etapa 420 de la Fig. 4C. La etapa 600 comienza una subtrama sincronizada que utiliza luz pulsada. Las etapas 602 y 603 pueden producirse simultaneamente, al menos en parte. En la etapa 602, la fuente de luz del proyector es accionada en un modo pulsado, de manera que es emitida luz visible pulsada en el campo de vision. Las Figs. 9A y 10A proporcionan ejemplos de formas de onda para la luz pulsada. Vease tambien el tiempo 0-2 ms en la Fig. 8A. En la etapa 603, el sensor es operado en un modo sincronizado mientras que son detectados impulsos reflejados (asf como luz de fondo). Las Figs. 9B y 10B proporcionan ejemplos de formas de onda para la luz detectada. Vease tambien el tiempo 0-2 ms en la Fig. 8B.
Las etapas 605 y 606 pueden producirse simultaneamente, al menos en parte. En la etapa 605, la fuente de luz no es accionada, por lo que no es emitida luz visible. Vease el tiempo 2-8 ms en la Fig. 8A. En la etapa 606, el sensor es lefdo para obtener valores de intensidad de luz. Vease el tiempo 2-8 ms en la Fig. 8B. Los valores de intensidad de luz pueden ser almacenados para su posterior uso en la determinacion de valores de profundidad. Por ejemplo, los valores de intensidad de la luz pueden ser ajustados en base a los valores de intensidad de luz que son obtenidos en la subtrama no sincronizada y, opcionalmente, la subtrama de fondo. Los valores de intensidad de luz ajustados pueden ser usados a continuacion para determinar los valores de profundidad.
La Fig. 6B representa un ejemplo de un proceso para proporcionar una subtrama no sincronizada como se establece en la etapa 422 de la Fig. 4C. La etapa 610 comienza una subtrama no sincronizada que utiliza luz pulsada. Las etapas 612 y 613 pueden producirse simultaneamente, al menos en parte. En la etapa 612, la fuente de luz es accionada en un modo pulsado, de manera que se emite luz visible pulsada en el campo de vision. Las Figs. 9A y 10A proporcionan ejemplos de formas de onda para la luz pulsada. Vease tambien el tiempo 8-10 ms en la Fig. 8A. En la etapa 613, el sensor es operado en un modo no sincronizado mientras que son detectados impulsos reflejados (asf como la luz de fondo). Las Figs. 9B y 10B proporcionan ejemplos de formas de onda para la luz detectada. Vease tambien el tiempo 8-10 ms en la Fig. 8B.
Las etapas 615 y 616 pueden ocurrir simultaneamente, al menos en parte. En la etapa 615, la fuente de luz no esta accionada. Como resultado, no es emitida luz visible. Vease el tiempo 10-16 ms en la Fig. 8A. En la etapa 616, el sensor es lefdo para obtener valores de intensidad de luz que indiquen reflectividad. Vease el tiempo 10-16 ms en la Fig. 8B. En la etapa 617, los valores de intensidad de luz que fueron determinados en la etapa 606 de la Fig. 6A son ajustados en base a los valores de intensidad de luz de la etapa 616. En la etapa 618, los valores de profundidad son determinados en base a los valores de intensidad de luz ajustados.
El ejemplo de implementacion de las Figs. 7A y 7B, tratado a continuacion, es para un modo QQVGA que incluye un periodo de trama de 33 ms que esta dividido en cuatro secciones o subtramas. Este es un ejemplo de una trama que incluye deteccion de la profundidad, deteccion del color y proyeccion. Son posibles muchas otras implementaciones. Por otra parte, como se ha mencionado, pueden ser usadas subtramas diferentes en tramas diferentes. Por ejemplo, algunas subtramas pueden ser usadas menos frecuentemente que en todas las tramas, mientras que otras subtramas son utilizadas en todas las tramas.
5
10
15
20
25
30
35
40
45
50
55
60
La Fig. 7A representa una salida de un proyector que corresponde al proceso de la Fig. 4B. En un periodo de trama de ejemplo de 33 ms estan previstas cuatro subtramas. Una subtrama temporizada se extiende desde 0-8 ms. De 0 a 2 ms el proyector emite una luz visible pulsada. De 2-8 ms el proyector emite una luz visible continua que tiene una amplitud I2. Una subtrama no sincronizada se extiende de 8-16 ms. De 8 a 10 ms el proyector emite luz visible pulsada. De 10-16 ms el proyector emite una luz visible continua. Una subtrama de fondo se extiende de 16-24 ms. De 16 a 18 ms el proyector no emite luz visible. De 18-24 ms el proyector emite una luz visible continua. Una subtrama de color se eXtiende de 24-33 ms. De 24-26 ms el proyector emite una luz visible continua. De 26-33 ms el proyector continua emitiendo una luz visible continua.
La lmea 700 representa una intensidad de luz I1 de una trama en la que el proyector proporciona una salida continua y no se produce deteccion, en una trama de no deteccion de profundidad. En un enfoque, es utilizada una intensidad o potencia de salida inferior, de tal manera que I1 < I2. Proporcionar una mayor salida de luz durante una trama de deteccion de profundidad, en comparacion con una trama de no deteccion de profundidad, puede ser util para mejorar el contraste de color de la imagen proyectada, mediante la compensacion de los penodos en los que es usada luz pulsante o ninguna salida de luz. Otra opcion, que puede ser utilizada adicional o alternativamente, es proporcionar un periodo de trama mas largo (representado por el penodo de trama FP en la Fig. 7C ) para la trama de no deteccion de profundidad en comparacion con la trama de deteccion de profundidad. Por ejemplo FP > 33 ms, donde 33 ms es el periodo de trama de la trama de deteccion de profundidad. Cualquiera de los enfoques aumenta la cantidad de luz que es emitida por el proyector por unidad de tiempo. Al ajustar selectivamente la intensidad de la luz y/o el periodo de trama, el consumo de energfa y la calidad de la imagen proyectada son optimizadas. Veanse las Figs. 7D y 7E para mas detalles.
La Fig. 7B representa una entrada a un sensor basada en la salida de proyector de la Fig. 7A. Cada subtrama incluye una integracion o penodo de deteccion activa, en el que es generada carga por cada pixel en el sensor en proporcion a la cantidad de luz detectada, seguido de un periodo de lectura o sobrecarga, en el que se lee la cantidad de carga acumulada de todos los pfxeles. Durante la lectura, puede ser lefda una porcion de un pixel al que se hace referencia como un acumulador y el acumulador puesto a cero para la deteccion posterior. En la subtrama sincronizada, de 0-2 ms, el sensor integra o acumula carga mientras que el proyector es pulsado, y de 2-8 ms es lefda la carga acumulada. En la subtrama no sincronizada, de 8-10 ms el sensor integra carga, mientras que el proyector es pulsado, y de 10-16 ms es lefda la carga acumulada. En la subtrama de fondo, de 16-18 de ms el sensor integra carga mientras el proyector no emite ninguna luz y de 18-24 ms es lefda la carga acumulada. En la subtrama de color, de 24-26 ms, el sensor integra carga mientras que la salida del proyector es continua, y de 26-33 ms es lefda la carga acumulada.
FIG. 7D representa un ejemplo de secuencia de trama que proporciona alternativamente una trama de no deteccion de profundidad utilizando una menor intensidad de luz I1, tal como en las etapas 720 y 724, y una trama de deteccion de profundidad usando una mayor intensidad de luz 12, tal como en las etapas 722 y 726. Aqrn, al menos un circuito de control proporciona, en diferentes momentos: (a) una trama de deteccion de profundidad (etapas 722 y 726) en la que el al menos un circuito de control deriva datos de profundidad con respecto al por lo menos un objeto en el campo de vision en base a los valores de intensidad de luz que son lefdos desde el sensor utilizando un principio de tiempo de vuelo, y (b) una trama de no deteccion de profundidad (etapas 720 y 724), en la que el por lo menos un circuito de control no deriva datos de profundidad con respecto al por lo menos un objeto en el campo de vision. Por otra parte, el por lo menos un circuito de control hace que la fuente de luz emita luz visible a una potencia de iluminacion superior durante la trama de deteccion de profundidad que durante la trama de no deteccion de profundidad.
Otra opcion implica diferentes modos de deteccion de profundidad. En general, al menos un circuito de control puede ser controlado para funcionar selectivamente en un primer modo, en el que el al menos un circuito de control utiliza un numero limitado de una o mas tramas para obtener datos de profundidad con respecto al por lo menos un objeto en el campo de vision, y en un segundo modo, en el que el al menos un circuito de control obtiene continuamente datos de profundidad con respecto al por lo menos un objeto en el campo de vision. Por ejemplo, el numero limitado de una o mas tramas para obtener datos de profundidad en el primer modo puede ser una sola trama, o un pequeno numero de tramas en un periodo de hasta, por ejemplo, un segundo. Esto se puede utilizar para proporcionar un modo de deteccion de profundidad de instantanea en el que se obtienen datos de profundidad para un objeto en el campo de vision, tal como un objeto estatico, en base a un comando de usuario. Por ejemplo, los datos de profundidad pueden ser obtenidos para un objeto de interes. En el segundo modo, los datos de profundidad son obtenidos continuamente para un objeto de interes, tal como un objeto en movimiento. Como se ha mencionado, no tiene que ser usado el modo de proyector cuando se obtienen datos de profundidad.
La Fig. 7E representa un ejemplo de secuencia de trama que proporciona alternativamente una trama de no deteccion de profundidad usando un periodo de trama/duracion mas corto, tal como en las etapas 730 y 734, y una trama de deteccion de profundidad utilizando un periodo de trama mas largo, como en las etapas 732 y 736.
El ejemplo de implementacion de las Figs. 8A y 8B, descrito a continuacion, es para un modo QQVGA que incluye un periodo de trama de 33 ms que se divide en dos subtramas, en las que solo se realiza deteccion. Este es un ejemplo de una trama de deteccion de profundidad y una trama de no proyeccion.
5
10
15
20
25
30
35
40
45
50
55
La Fig. 8A representa una salida de un proyector que corresponde al proceso de la Fig. 4C. Una subtrama sincronizada se extiende de 0-8 ms. De 0 a 2 ms el proyector emite una luz visible pulsada. De 2-8 ms el proyector no emite luz visible. Un subtrama no sincronizada se extiende de 8-16 ms. De 8 a 10 ms el proyector emite una luz visible pulsada. De 10-16 ms el proyector no emite luz visible. De modo similar, en un resto de la trama de 16 a 33 ms, el proyector no emite luz visible. En este modo, la imagen de fondo es obtenida de la imagen de color, de 16-33 ms, puesto que son esencialmente identicas.
La Fig. 8B representa una entrada a un sensor en base a la salida de proyector de la Fig. 8A. En la subtrama sincronizada, de 0-2 ms el sensor integra carga mientras que el proyector es pulsado, y de 2-8 ms es lefda la carga acumulada. En la trama no sincronizada, de 8-10 ms el sensor integra carga mientras que el proyector es pulsado, y de 10-16 ms es lefda la carga acumulada. En un resto de la trama, de 16-33 ms, pueden ser detectadas una subtrama de fondo y una subtrama de color, que son esencialmente la misma. Como se ha mencionado, este modo permite que el dispositivo proyector de video opere en un modo de solo deteccion, en el que no se produce proyeccion, de manera que se reduce el consumo de energfa. No es emitida luz visible en un momento que no sea durante la subtrama sincronizada y la subtrama no sincronizada. Por ejemplo, la fuente de luz puede ser apagada para reducir el consumo de energfa.
La Fig. 9A representa la luz pulsada que es emitida desde un proyector usando formas de onda cuadradas. Los principios de tiempo de vuelo permiten que sea determinada la profundidad de un punto en un objeto en un campo de vision en base al tiempo transcurrido para que la luz viaje desde el proyector hasta el punto y sea reflejada de nuevo al sensor. Por otra parte, es utilizada una cantidad de luz registrada por un pixel en la superficie fotosensible del sensor durante el penodo sincronizado para determinar la distancia a un elemento de superficie de la escena captada en el pixel. Un ejemplo de frecuencia de impulsos es 44 Mhz. A lo largo del eje x, que representa el tiempo, At1 representa una duracion de impulso de impulsos de ejemplo 900 y 920, y At2 representa un periodo entre el inicio de cada pulso. A lo largo del eje y, que representa la intensidad de luz proyectada, cada pulso es elevado y tiene esencialmente una forma de onda cuadrada en esta implementacion. En un enfoque, cada impulso aumenta desde un nivel de intensidad esencialmente cero a un nivel maximo. En otro enfoque, cada impulso aumenta desde un nivel de intensidad distinto de cero a un nivel maximo. En otro enfoque, la intensidad proyectada sigue una modulacion de onda continua, tal como una onda sinusoidal, en lugar de proporcionar impulsos de luz separados. En este caso, es medida la diferencia de fase entre las senales enviadas y recibidas, en lugar de medir directamente el tiempo total del viaje de un impulso de luz particular. Como la frecuencia de modulacion es conocida, esta fase medida se corresponde directamente con el tiempo de vuelo. Una fuente de luz pulsada puede obtenerse accionando la fuente de luz de forma correspondiente.
La Fig. 9B representa la luz pulsada, que es la entrada a un sensor en base a la salida de proyector de la Fig. 9A. El eje x de Fig. 9B esta alineado en el tiempo con el eje x de la Fig. 9A. Cuando el sensor esta en un modo sincronizado, es definido un penodo sincronizado At3 en el que se puede producir deteccion. La luz detectada esta representada por los impulsos 910 y 930. Tfpicamente, At3 > At1, de modo que son proporcionados margenes de tiempo At4f y At4b en la parte delantera y trasera, respectivamente, de cada penodo sincronizado. Se ilustra el tiempo de vuelo (TOF) representado por los impulsos 900 y 910. Los impulsos detectados 910 y 930 corresponden a los impulsos proyectados 900 y 920, respectivamente. Esta representado que durante toda la deteccion existe una luz detectada ambiente o a nivel del suelo.
La Fig. 10A representa la luz pulsada que se emite desde un proyector usando formas de onda triangulares. Una forma de onda triangular puede ser considerada como un impulso que tiene al menos uno de: (a) un flanco ascendente que pasa a alto a una velocidad que esta por debajo de una velocidad de subida del modulador, y (b) un flanco descendente que pasa a bajo a una velocidad que esta por debajo de una velocidad de bajada del modulador. Es decir, el flanco ascendente es controlado para pasar a alto a una velocidad que es mas lenta que una velocidad maxima posible, que es una subida inmediata, y/o el flanco descendente es controlado para pasar a bajo a una velocidad que es mas lenta que una velocidad maxima posible, que es un descenso inmediato. Como forma de onda puede tener flancos ascendentes y flancos descendentes simetricos o no simetricos. En una opcion, la forma de onda alcanza una amplitud maxima y permanece en ese nivel durante algun tiempo, de modo que la forma de onda tiene una forma trapezoidal, tal como en los ejemplos de formas de onda 1000 y 1010. La forma de onda 1000 incluye un flanco ascendente 1002, una amplitud maxima 1004 y un flanco descendente 1006. En otra opcion, la forma de onda es un triangulo que tiene un pico afilado.
La Fig. 10B representa la luz pulsada, que es la entrada a un sensor en base a la salida proyectada de la Fig. 10A. Las formas de onda detectadas 1020 y 1030 corresponden a las formas de onda proyectadas de los impulsos 1000 y 1010, respectivamente.
La descripcion detallada anterior de la tecnologfa en el presente documento ha sido presentada con propositos de ilustracion y descripcion. No se pretende que sea exhaustiva o limitar la tecnologfa a la forma precisa descrita. Muchas modificaciones y variaciones son posibles a la luz de las ensenanzas anteriores. Las realizaciones descritas fueron elegidas para explicar mejor los principios de la tecnologfa y su aplicacion practica para permitir de ese modo que otros expertos en la tecnica utilicen de la mejor forma posible la tecnologfa en varias realizaciones y con varias
modificaciones que sean adecuadas al uso particular contemplado. Se pretende que el alcance de la tecnolog^a sea definido por las reivindicaciones adjuntas a la misma.
Claims (11)
- 510152025303540455055REIVINDICACIONES1. Dispositivo proyector de v^deo (100, 300), que comprende: una fuente de luz (318) que emite luz visible; un controlador (316) que acciona la fuente de luz (318); al menos un componente optico (322) que proyecta la luz visible en un campo de vision; un sensor (350) que detecta la luz visible, incluyendo la luz visible que es reflejada desde al menos un objeto en el campo de vision, comprendiendo el sensor (350) una pluralidad de pfxeles; y al menos un circuito de control (310, 340) que proporciona una subtrama sincronizada, en la que la fuente de luz (318) es accionada en un modo pulsado mientras que el sensor (350) es operado en un modo sincronizado, despues de lo cual la fuente de luz (318) es accionada en un modo continuo mientras que es lefdo el sensor (350) para obtener valores de intensidad de luz, en el que el al menos un circuito de control (310, 340) deriva datos de profundidad con respecto al por lo menos un objeto en el campo de vision en base a los valores de intensidad de luz utilizando un principio de tiempo de vuelo, y la fuente de luz (318) y el componente optico (322) son usados para la proyeccion de video y para la medicion de tiempo de vuelo, en el que el al menos un circuito de control (310, 340) proporciona una subtrama no sincronizada, en la que la fuente de luz (318) es accionada en el modo pulsado mientras que el sensor (350) es operado en un modo no sincronizado, despues de lo cual la fuente de luz (318) es accionada en el modo continuo mientras que es lefdo el sensor (350) para obtener valores de intensidad de luz, en el que el al menos un circuito de control (310, 340) ajusta los valores de intensidad de luz obtenidos durante la subtrama sincronizada en base a los valores de intensidad de luz obtenidos durante la subtrama no sincronizada, para compensar la reflectividad del al menos un objeto en el campo de vision.
- 2. Dispositivo proyector de video (100, 300) segun la reivindicacion 1, en el que el al menos un circuito de control (310, 340) proporciona al menos una subtrama de fondo en la que no es emitida luz visible mientras que el sensor (350) es operado en un modo sincronizado, despues de lo cual la fuente de luz (318) es accionada en el modo continuo mientras que es lefdo el sensor (350) para obtener valores de intensidad de luz, en el que el al menos un circuito de control (310, 340) ajusta los valores de intensidad de luz obtenidos durante la subtrama sincronizada en base a los valores de intensidad de luz obtenidos durante la subtrama de fondo, para compensar la luz de fondo en el campo de vision.
- 3. Dispositivo proyector de video (100, 300) segun la reivindicacion 1, en el que el al menos un circuito de control (310, 340) proporciona dos de las subtramas de fondo en una trama.
- 4. Dispositivo proyector de video (100, 300) segun una cualquiera de las reivindicaciones anteriores, en el que: el al menos un circuito de control (310, 340) proporciona una subtrama de color en la que la fuente de luz (318) es accionada en el modo continuo mientras que el sensor (350) es operado en un modo de deteccion de color estandar, despues de lo cual la fuente de luz (318) es accionada en el modo continuo mientras que es lefdo el sensor (350) para obtener valores de intensidad de luz que incluyen datos de color del campo de vision.
- 5. Dispositivo proyector de video (100, 300) segun una cualquiera de las reivindicaciones anteriores, en el que el al menos un circuito de control (310, 340) proporciona una subtrama en la que la fuente de luz (318) es accionada en el modo continuo mientras que el sensor (350) esta activo.
- 6. Dispositivo proyector de video (100, 300) segun una cualquiera de las reivindicaciones anteriores, en el que el al menos un circuito de control (310, 340) acciona la fuente de luz (318) utilizando impulsos con forma triangular durante la subtrama sincronizada.
- 7. Dispositivo proyector de video (300) segun una cualquiera de las reivindicaciones anteriores, en el que el al menos un circuito de control (310, 340) acciona la fuente de luz (318) utilizando impulsos que tienen cada uno al menos uno de: (a) un flanco ascendente, que pasa a alto a una velocidad que esta por debajo de una velocidad de subida de la fuente de luz (318) y (b) un flanco descendente que pasa a bajo a una velocidad que esta por debajo de una velocidad de descenso de la fuente de luz (318).
- 8. Dispositivo proyector de video (100, 300) segun una cualquiera de las reivindicaciones anteriores, en el que la fuente de luz (318), al menos un componente optico (322), el al menos un circuito de control (310, 340) y el sensor (350) estan previstos en una carcasa comun.
- 9. Dispositivo proyector de video (100, 300) segun una cualquiera de las reivindicaciones anteriores, que comprende ademas al menos un panel LCD (320) transmisor de luz que codifica informacion de video sobre la luz visible, comprendiendo el al menos un panel LCD (320) transmisor de luz una pluralidad de pfxeles.
- 10. Dispositivo proyector de video (100, 300) segun una cualquiera de las reivindicaciones anteriores, en el que el al menos un circuito de control (310, 340) enfoca el al menos un componente optico (322) en base a los datos de profundidad.
- 11. Dispositivo proyector de video (100, 300) segun la reivindicacion 10, en el que el al menos un circuito de control (310, 340) proporciona una subtrama no sincronizada en la que la fuente de luz (318) es accionada en el modo pulsado mientras que el sensor (350) es operado en un modo no sincronizado, y no es emitida luz no visible en una trama en otro momento que no sea durante la subtrama sincronizada y la subtrama no sincronizada.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US12/892,589 US8681255B2 (en) | 2010-09-28 | 2010-09-28 | Integrated low power depth camera and projection device |
| US892589 | 2010-09-28 | ||
| PCT/US2011/049606 WO2012047410A1 (en) | 2010-09-28 | 2011-08-29 | Integrated low power depth camera and projection device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2587436T3 true ES2587436T3 (es) | 2016-10-24 |
Family
ID=45870307
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES11831132.3T Active ES2587436T3 (es) | 2010-09-28 | 2011-08-29 | Cámara de profundidad de baja potencia integrada y dispositivo de proyección |
Country Status (9)
| Country | Link |
|---|---|
| US (1) | US8681255B2 (es) |
| EP (1) | EP2622847B1 (es) |
| JP (1) | JP5894600B2 (es) |
| KR (1) | KR101861393B1 (es) |
| CN (1) | CN102510461B (es) |
| CA (1) | CA2812433C (es) |
| ES (1) | ES2587436T3 (es) |
| IL (1) | IL225090A (es) |
| WO (1) | WO2012047410A1 (es) |
Families Citing this family (81)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8330822B2 (en) * | 2010-06-09 | 2012-12-11 | Microsoft Corporation | Thermally-tuned depth camera light source |
| US9723293B1 (en) * | 2011-06-21 | 2017-08-01 | Amazon Technologies, Inc. | Identifying projection surfaces in augmented reality environments |
| US9001190B2 (en) * | 2011-07-05 | 2015-04-07 | Microsoft Technology Licensing, Llc | Computer vision system and method using a depth sensor |
| US20130021488A1 (en) * | 2011-07-20 | 2013-01-24 | Broadcom Corporation | Adjusting Image Capture Device Settings |
| US9628843B2 (en) * | 2011-11-21 | 2017-04-18 | Microsoft Technology Licensing, Llc | Methods for controlling electronic devices using gestures |
| US8840250B1 (en) | 2012-01-11 | 2014-09-23 | Rawles Llc | Projection screen qualification and selection |
| US9472005B1 (en) * | 2012-04-18 | 2016-10-18 | Amazon Technologies, Inc. | Projection and camera system for augmented reality environment |
| KR102144521B1 (ko) | 2012-05-29 | 2020-08-14 | 브라이트웨이 비젼 엘티디. | 적응 피사계심도를 이용한 게이트된 영상 획득 방법 및 영상 시스템 |
| US9438805B2 (en) * | 2012-06-08 | 2016-09-06 | Sony Corporation | Terminal device and image capturing method |
| FR2999730B1 (fr) * | 2012-12-18 | 2018-07-06 | Valeo Comfort And Driving Assistance | Afficheur pour afficher dans le champ de vision d'un conducteur une image virtuelle et dispositif de generation d'images pour ledit afficheur |
| US9602807B2 (en) | 2012-12-19 | 2017-03-21 | Microsoft Technology Licensing, Llc | Single frequency time of flight de-aliasing |
| US9083960B2 (en) | 2013-01-30 | 2015-07-14 | Qualcomm Incorporated | Real-time 3D reconstruction with power efficient depth sensor usage |
| US9134114B2 (en) * | 2013-03-11 | 2015-09-15 | Texas Instruments Incorporated | Time of flight sensor binning |
| US10371943B2 (en) * | 2013-03-14 | 2019-08-06 | Valve Corporation | Method and system to control the focus depth of projected images |
| US20140320605A1 (en) * | 2013-04-25 | 2014-10-30 | Philip Martin Johnson | Compound structured light projection system for 3-D surface profiling |
| US9774833B2 (en) * | 2013-07-16 | 2017-09-26 | Texas Instruments Incorporated | Projector auto-focus correction with the aid of a camera |
| US10203399B2 (en) | 2013-11-12 | 2019-02-12 | Big Sky Financial Corporation | Methods and apparatus for array based LiDAR systems with reduced interference |
| US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
| JP5974189B2 (ja) * | 2013-12-19 | 2016-08-23 | 日立マクセル株式会社 | 投写型映像表示装置及び投写型映像表示方法 |
| EP2887029B1 (de) | 2013-12-20 | 2016-03-09 | Multipond Wägetechnik GmbH | Befüllungsvorrichtung und Verfahren zum Erfassen einer Befüllung |
| CN103813115A (zh) * | 2014-01-27 | 2014-05-21 | 吴砺 | 一种模拟窗户 |
| AU2015210704B2 (en) | 2014-01-31 | 2019-05-30 | Magic Leap, Inc. | Multi-focal display system and method |
| CN106461955B (zh) | 2014-01-31 | 2019-08-13 | 奇跃公司 | 显示增强现实的方法 |
| US9360554B2 (en) | 2014-04-11 | 2016-06-07 | Facet Technology Corp. | Methods and apparatus for object detection and identification in a multiple detector lidar array |
| CN106664400B (zh) | 2014-05-30 | 2020-08-04 | 奇跃公司 | 用于显示虚拟和增强现实的立体视觉的方法和系统 |
| CA2950429C (en) | 2014-05-30 | 2021-05-25 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
| CN106796388A (zh) * | 2014-07-31 | 2017-05-31 | 惠普发展公司,有限责任合伙企业 | 来自发光二极管(led)投影仪的白色闪光生成 |
| WO2016018418A1 (en) * | 2014-07-31 | 2016-02-04 | Hewlett-Packard Development Company, L.P. | Misalignment detection |
| US10216075B2 (en) * | 2014-09-15 | 2019-02-26 | Hewlett-Packard Development Company, L.P. | Digital light projector having invisible light channel |
| TWI552597B (zh) * | 2014-11-12 | 2016-10-01 | 觸動創意股份有限公司 | 行動無線環物攝影之系統及其方法 |
| JP6597636B2 (ja) * | 2014-12-10 | 2019-10-30 | ソニー株式会社 | 撮像装置、撮像方法、およびプログラム、並びに画像処理装置 |
| US10036801B2 (en) | 2015-03-05 | 2018-07-31 | Big Sky Financial Corporation | Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array |
| US10145942B2 (en) * | 2015-03-27 | 2018-12-04 | Intel Corporation | Techniques for spatio-temporal compressed time of flight imaging |
| US20160309135A1 (en) | 2015-04-20 | 2016-10-20 | Ilia Ovsiannikov | Concurrent rgbz sensor and system |
| US10250833B2 (en) | 2015-04-20 | 2019-04-02 | Samsung Electronics Co., Ltd. | Timestamp calibration of the 3D camera with epipolar line laser point scanning |
| US11736832B2 (en) | 2015-04-20 | 2023-08-22 | Samsung Electronics Co., Ltd. | Timestamp calibration of the 3D camera with epipolar line laser point scanning |
| US10145678B2 (en) | 2015-04-20 | 2018-12-04 | Samsung Electronics Co., Ltd. | CMOS image sensor for depth measurement using triangulation with point scan |
| US11002531B2 (en) | 2015-04-20 | 2021-05-11 | Samsung Electronics Co., Ltd. | CMOS image sensor for RGB imaging and depth measurement with laser sheet scan |
| JP6554310B2 (ja) * | 2015-04-28 | 2019-07-31 | 浜松ホトニクス株式会社 | 距離測定装置 |
| US10721420B2 (en) * | 2015-06-02 | 2020-07-21 | Intel Corporation | Method and system of adaptable exposure control and light projection for cameras |
| US10512508B2 (en) | 2015-06-15 | 2019-12-24 | The University Of British Columbia | Imagery system |
| JP6792607B2 (ja) | 2015-07-20 | 2020-11-25 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 仮想/拡張現実システムにおける内向き角度を用いてファイバスキャナをコリメートする設計 |
| WO2017038203A1 (ja) * | 2015-08-28 | 2017-03-09 | 富士フイルム株式会社 | 距離画像取得装置付きプロジェクタ装置及びプロジェクションマッピング方法 |
| US9648223B2 (en) * | 2015-09-04 | 2017-05-09 | Microvision, Inc. | Laser beam scanning assisted autofocus |
| US9762873B2 (en) * | 2015-09-04 | 2017-09-12 | Microvision, Inc. | Dynamic constancy of brightness or size of projected content in a scanning display system |
| CN108140358A (zh) * | 2015-09-29 | 2018-06-08 | 富士胶片株式会社 | 附带距离图像获取装置的投影装置以及投影方法 |
| CA2998029C (en) | 2015-10-05 | 2023-01-10 | Magic Leap, Inc. | Microlens collimator for scanning optical fiber in virtual/augmented reality system |
| US10338391B2 (en) | 2015-10-06 | 2019-07-02 | Magic Leap, Inc. | Virtual/augmented reality system having reverse angle diffraction grating |
| EP3361283B1 (en) * | 2015-10-09 | 2025-02-26 | Nuvoton Technology Corporation Japan | Imaging apparatus and solid-state image element used for same |
| FR3043210A1 (fr) * | 2015-10-28 | 2017-05-05 | Valeo Comfort & Driving Assistance | Dispositif et procede de detection d'objets |
| US11194023B2 (en) | 2015-12-21 | 2021-12-07 | Koito Manufacturing Co., Ltd. | Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle |
| JP6942637B2 (ja) * | 2015-12-21 | 2021-09-29 | 株式会社小糸製作所 | 車両用画像取得装置、および車両用画像取得装置を備えた車両 |
| JP6868570B2 (ja) | 2015-12-21 | 2021-05-12 | 株式会社小糸製作所 | 車両用画像取得装置、制御装置、車両用画像取得装置または制御装置を備えた車両および車両用画像取得方法 |
| EP3396411A4 (en) | 2015-12-21 | 2019-08-21 | Koito Manufacturing Co., Ltd. | IMAGING DEVICE FOR VEHICLES AND VEHICLE THEREWITH |
| CN108431629B (zh) | 2015-12-21 | 2022-07-08 | 株式会社小糸制作所 | 车辆用图像获取装置、控制装置、包括了车辆用图像获取装置或控制装置的车辆和车辆用图像获取方法 |
| EP3405820B1 (en) | 2016-01-20 | 2021-02-24 | Magic Leap, Inc. | Polarizing maintaining optical fiber in virtual/augmented reality system |
| CN106997586B (zh) * | 2016-01-25 | 2019-12-20 | 杭州海康威视数字技术股份有限公司 | 一种物体材料确定方法、装置及系统 |
| US9866816B2 (en) | 2016-03-03 | 2018-01-09 | 4D Intellectual Properties, Llc | Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis |
| KR20170105701A (ko) * | 2016-03-09 | 2017-09-20 | 한국전자통신연구원 | 스캐닝 장치 및 이의 동작 방법 |
| US10234561B2 (en) | 2016-05-09 | 2019-03-19 | Microsoft Technology Licensing, Llc | Specular reflection removal in time-of-flight camera apparatus |
| US10386486B2 (en) | 2016-06-21 | 2019-08-20 | Microsoft Technology Licensing, Llc | Systems and methods for time of flight laser pulse engineering |
| US11703573B2 (en) * | 2016-11-30 | 2023-07-18 | Sony Semiconductor Solutions Corporation | Distance measurement device and distance measurement method |
| TWI620420B (zh) * | 2016-12-02 | 2018-04-01 | 財團法人資訊工業策進會 | 可見光通訊系統及方法 |
| CN106534803A (zh) * | 2016-12-13 | 2017-03-22 | Tcl集团股份有限公司 | 一种仿真窗显示的方法及系统 |
| US10425628B2 (en) | 2017-02-01 | 2019-09-24 | Microsoft Technology Licensing, Llc | Alternating frequency captures for time of flight depth sensing |
| US11287292B2 (en) | 2017-02-13 | 2022-03-29 | Lockheed Martin Corporation | Sensor system |
| US10554958B2 (en) * | 2017-03-13 | 2020-02-04 | Microsoft Technology Licensing, Llc | Systems and methods for interleaving multiple active camera frames |
| CN118819301A (zh) * | 2017-03-21 | 2024-10-22 | 奇跃公司 | 虚拟、增强和混合现实系统的深度感测技术 |
| JP2019083501A (ja) * | 2017-10-27 | 2019-05-30 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置 |
| US10339718B1 (en) | 2017-12-29 | 2019-07-02 | Verizon Patent And Licensing Inc. | Methods and systems for projecting augmented reality content |
| CN109059795B (zh) * | 2018-06-29 | 2020-11-03 | 歌尔光学科技有限公司 | 深度测量方法、深度测量装置及拍摄设备 |
| JP6822445B2 (ja) | 2018-07-02 | 2021-01-27 | カシオ計算機株式会社 | 投影装置、投影方法及びプログラム |
| WO2020085525A1 (ko) * | 2018-10-23 | 2020-04-30 | 엘지전자 주식회사 | 이동단말기 및 그 제어 방법 |
| US11500103B2 (en) | 2018-10-23 | 2022-11-15 | Lg Electronics Inc. | Mobile terminal |
| US11620044B2 (en) | 2018-10-23 | 2023-04-04 | Lg Electronics Inc. | Mobile terminal |
| KR20200069096A (ko) * | 2018-12-06 | 2020-06-16 | 삼성전자주식회사 | 전자 장치 및 이를 이용하여 오브젝트의 깊이 정보를 획득하는 방법 |
| EP3942797A4 (en) * | 2019-03-19 | 2022-12-14 | INTEL Corporation | HIGH-LEVEL SYNTAX FOR IMMERSIVE VIDEO ENCODING |
| US12200843B2 (en) * | 2020-01-02 | 2025-01-14 | Signify Holding B.V. | Sensor device for controlling an electrical device |
| US11443447B2 (en) | 2020-04-17 | 2022-09-13 | Samsung Electronics Co., Ltd. | Three-dimensional camera system |
| US12000931B2 (en) * | 2020-05-15 | 2024-06-04 | Analog Devices International Unlimited Company | Continuous wave time of flight system |
| CN114125193A (zh) * | 2020-08-31 | 2022-03-01 | 安霸国际有限合伙企业 | 使用具有结构光的rgb-ir传感器得到无污染视频流的计时机构 |
Family Cites Families (189)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4695953A (en) | 1983-08-25 | 1987-09-22 | Blair Preston E | TV animation interactively controlled by the viewer |
| US4630910A (en) | 1984-02-16 | 1986-12-23 | Robotic Vision Systems, Inc. | Method of measuring in three-dimensions at high speed |
| US4653104A (en) * | 1984-09-24 | 1987-03-24 | Westinghouse Electric Corp. | Optical three-dimensional digital data acquisition system |
| US4627620A (en) | 1984-12-26 | 1986-12-09 | Yang John P | Electronic athlete trainer for improving skills in reflex, speed and accuracy |
| US4645458A (en) | 1985-04-15 | 1987-02-24 | Harald Phillip | Athletic evaluation and training apparatus |
| US4702475A (en) | 1985-08-16 | 1987-10-27 | Innovating Training Products, Inc. | Sports technique and reaction training system |
| US4843568A (en) | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
| US4711543A (en) | 1986-04-14 | 1987-12-08 | Blair Preston E | TV animation interactively controlled by the viewer |
| US4796997A (en) | 1986-05-27 | 1989-01-10 | Synthetic Vision Systems, Inc. | Method and system for high-speed, 3-D imaging of an object at a vision station |
| US5184295A (en) | 1986-05-30 | 1993-02-02 | Mann Ralph V | System and method for teaching physical skills |
| US4751642A (en) | 1986-08-29 | 1988-06-14 | Silva John M | Interactive sports simulation system with physiological sensing and psychological conditioning |
| US4809065A (en) | 1986-12-01 | 1989-02-28 | Kabushiki Kaisha Toshiba | Interactive system and related method for displaying data to produce a three-dimensional image of an object |
| US4817950A (en) | 1987-05-08 | 1989-04-04 | Goo Paul E | Video game control unit and attitude sensor |
| US5239464A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Interactive video system providing repeated switching of multiple tracks of actions sequences |
| US5239463A (en) | 1988-08-04 | 1993-08-24 | Blair Preston E | Method and apparatus for player interaction with animated characters and objects |
| US4901362A (en) | 1988-08-08 | 1990-02-13 | Raytheon Company | Method of recognizing patterns |
| US4893183A (en) | 1988-08-11 | 1990-01-09 | Carnegie-Mellon University | Robotic vision system |
| JPH02199526A (ja) | 1988-10-14 | 1990-08-07 | David G Capper | 制御インターフェース装置 |
| US4925189A (en) | 1989-01-13 | 1990-05-15 | Braeunig Thomas F | Body-mounted video game exercise device |
| US5229756A (en) | 1989-02-07 | 1993-07-20 | Yamaha Corporation | Image control apparatus |
| US5469740A (en) | 1989-07-14 | 1995-11-28 | Impulse Technology, Inc. | Interactive video testing and training system |
| JPH03103822U (es) | 1990-02-13 | 1991-10-29 | ||
| US5101444A (en) | 1990-05-18 | 1992-03-31 | Panacea, Inc. | Method and apparatus for high speed object location |
| US5148154A (en) | 1990-12-04 | 1992-09-15 | Sony Corporation Of America | Multi-dimensional user interface |
| US5534917A (en) | 1991-05-09 | 1996-07-09 | Very Vivid, Inc. | Video image based control system |
| US5417210A (en) | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
| US5295491A (en) | 1991-09-26 | 1994-03-22 | Sam Technology, Inc. | Non-invasive human neurocognitive performance capability testing method and system |
| US6054991A (en) | 1991-12-02 | 2000-04-25 | Texas Instruments Incorporated | Method of modeling player position and movement in a virtual reality system |
| WO1993010708A1 (en) | 1991-12-03 | 1993-06-10 | French Sportech Corporation | Interactive video testing and training system |
| US5875108A (en) | 1991-12-23 | 1999-02-23 | Hoffberg; Steven M. | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
| JPH07325934A (ja) | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | 仮想世界に向上したグラフィックスを提供する方法および装置 |
| US5999908A (en) | 1992-08-06 | 1999-12-07 | Abelow; Daniel H. | Customer-based product design module |
| US5320538A (en) | 1992-09-23 | 1994-06-14 | Hughes Training, Inc. | Interactive aircraft training system and method |
| IT1257294B (it) | 1992-11-20 | 1996-01-12 | Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori. | |
| US5495576A (en) | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
| US5690582A (en) | 1993-02-02 | 1997-11-25 | Tectrix Fitness Equipment, Inc. | Interactive exercise apparatus |
| JP2799126B2 (ja) | 1993-03-26 | 1998-09-17 | 株式会社ナムコ | ビデオゲーム装置及びゲーム用入力装置 |
| US5405152A (en) | 1993-06-08 | 1995-04-11 | The Walt Disney Company | Method and apparatus for an interactive video game with physical feedback |
| US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
| US5423554A (en) | 1993-09-24 | 1995-06-13 | Metamedia Ventures, Inc. | Virtual reality game method and apparatus |
| US5980256A (en) | 1993-10-29 | 1999-11-09 | Carmein; David E. E. | Virtual reality system with enhanced sensory apparatus |
| JP3419050B2 (ja) | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
| US5347306A (en) | 1993-12-17 | 1994-09-13 | Mitsubishi Electric Research Laboratories, Inc. | Animated electronic meeting place |
| JP2552427B2 (ja) | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
| US5577981A (en) | 1994-01-19 | 1996-11-26 | Jarvik; Robert | Virtual reality exercise machine and computer controlled video system |
| US5580249A (en) | 1994-02-14 | 1996-12-03 | Sarcos Group | Apparatus for simulating mobility of a human |
| US5597309A (en) | 1994-03-28 | 1997-01-28 | Riess; Thomas | Method and apparatus for treatment of gait problems associated with parkinson's disease |
| US5385519A (en) | 1994-04-19 | 1995-01-31 | Hsu; Chi-Hsueh | Running machine |
| US5524637A (en) | 1994-06-29 | 1996-06-11 | Erickson; Jon W. | Interactive system for measuring physiological exertion |
| US5563988A (en) | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
| US6714665B1 (en) | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
| US5516105A (en) | 1994-10-06 | 1996-05-14 | Exergame, Inc. | Acceleration activated joystick |
| US5638300A (en) | 1994-12-05 | 1997-06-10 | Johnson; Lee E. | Golf swing analysis system |
| JPH08161292A (ja) | 1994-12-09 | 1996-06-21 | Matsushita Electric Ind Co Ltd | 混雑度検知方法およびそのシステム |
| US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
| US5682229A (en) | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
| US5913727A (en) | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
| US6229913B1 (en) | 1995-06-07 | 2001-05-08 | The Trustees Of Columbia University In The City Of New York | Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus |
| IL114278A (en) | 1995-06-22 | 2010-06-16 | Microsoft Internat Holdings B | Camera and method |
| US5682196A (en) | 1995-06-22 | 1997-10-28 | Actv, Inc. | Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers |
| DE69635858T2 (de) | 1995-06-22 | 2006-11-30 | 3Dv Systems Ltd. | Telezentrische 3d kamera und zugehöriges verfahren |
| US5702323A (en) | 1995-07-26 | 1997-12-30 | Poulton; Craig K. | Electronic exercise enhancer |
| US6430997B1 (en) | 1995-11-06 | 2002-08-13 | Trazer Technologies, Inc. | System and method for tracking and assessing movement skills in multidimensional space |
| US6073489A (en) | 1995-11-06 | 2000-06-13 | French; Barry J. | Testing and training system for assessing the ability of a player to complete a task |
| US6098458A (en) | 1995-11-06 | 2000-08-08 | Impulse Technology, Ltd. | Testing and training system for assessing movement and agility skills without a confining field |
| US6308565B1 (en) | 1995-11-06 | 2001-10-30 | Impulse Technology Ltd. | System and method for tracking and assessing movement skills in multidimensional space |
| US6176782B1 (en) | 1997-12-22 | 2001-01-23 | Philips Electronics North America Corp. | Motion-based command generation technology |
| US5933125A (en) | 1995-11-27 | 1999-08-03 | Cae Electronics, Ltd. | Method and apparatus for reducing instability in the display of a virtual environment |
| US5641288A (en) | 1996-01-11 | 1997-06-24 | Zaenglein, Jr.; William G. | Shooting simulating process and training device using a virtual reality display screen |
| US6152856A (en) | 1996-05-08 | 2000-11-28 | Real Vision Corporation | Real time simulation using position sensing |
| US6173066B1 (en) | 1996-05-21 | 2001-01-09 | Cybernet Systems Corporation | Pose determination and tracking by matching 3D objects to a 2D sensor |
| US5989157A (en) | 1996-08-06 | 1999-11-23 | Walton; Charles A. | Exercising system with electronic inertial game playing |
| JP2001504605A (ja) | 1996-08-14 | 2001-04-03 | ラティポフ,ヌラフメド,ヌリスラモビチ | 空間内のユーザの位置及び方向性を追跡及び表示するための方法、ユーザに対し仮想環境を提示するための方法及びこれらの方法を実現するためのシステム |
| JP3064928B2 (ja) | 1996-09-20 | 2000-07-12 | 日本電気株式会社 | 被写体抽出方式 |
| ATE232621T1 (de) | 1996-12-20 | 2003-02-15 | Hitachi Europ Ltd | Verfahren und system zur erkennung von handgesten |
| US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
| US6100896A (en) | 1997-03-24 | 2000-08-08 | Mitsubishi Electric Information Technology Center America, Inc. | System for designing graphical multi-participant environments |
| US5877803A (en) | 1997-04-07 | 1999-03-02 | Tritech Mircoelectronics International, Ltd. | 3-D image detector |
| US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
| JP3077745B2 (ja) | 1997-07-31 | 2000-08-14 | 日本電気株式会社 | データ処理方法および装置、情報記憶媒体 |
| US6188777B1 (en) | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
| US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
| US6289112B1 (en) | 1997-08-22 | 2001-09-11 | International Business Machines Corporation | System and method for determining block direction in fingerprint images |
| AUPO894497A0 (en) | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
| EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
| US6141463A (en) | 1997-10-10 | 2000-10-31 | Electric Planet Interactive | Method and system for estimating jointed-figure configurations |
| US6072494A (en) | 1997-10-15 | 2000-06-06 | Electric Planet, Inc. | Method and apparatus for real-time gesture recognition |
| WO1999019828A1 (en) | 1997-10-15 | 1999-04-22 | Electric Planet, Inc. | Method and apparatus for performing a clean background subtraction |
| US6130677A (en) | 1997-10-15 | 2000-10-10 | Electric Planet, Inc. | Interactive computer vision system |
| US6384819B1 (en) | 1997-10-15 | 2002-05-07 | Electric Planet, Inc. | System and method for generating an animatable character |
| US6101289A (en) | 1997-10-15 | 2000-08-08 | Electric Planet, Inc. | Method and apparatus for unencumbered capture of an object |
| US6181343B1 (en) | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
| US6159100A (en) | 1998-04-23 | 2000-12-12 | Smith; Michael D. | Virtual reality game |
| US6077201A (en) | 1998-06-12 | 2000-06-20 | Cheng; Chau-Yang | Exercise bicycle |
| US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
| US7121946B2 (en) | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
| US6681031B2 (en) | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
| US7036094B1 (en) | 1998-08-10 | 2006-04-25 | Cybernet Systems Corporation | Behavior recognition system |
| US20010008561A1 (en) | 1999-08-10 | 2001-07-19 | Paul George V. | Real-time object tracking system |
| US6801637B2 (en) | 1999-08-10 | 2004-10-05 | Cybernet Systems Corporation | Optical body tracker |
| IL126284A (en) | 1998-09-17 | 2002-12-01 | Netmor Ltd | System and method for three dimensional positioning and tracking |
| DE69936620T2 (de) | 1998-09-28 | 2008-05-21 | Matsushita Electric Industrial Co., Ltd., Kadoma | Verfahren und Vorrichtung zum Segmentieren von Handgebärden |
| AU1930700A (en) | 1998-12-04 | 2000-06-26 | Interval Research Corporation | Background estimation and segmentation based on range and color |
| US6147678A (en) | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
| JP4578686B2 (ja) | 1998-12-16 | 2010-11-10 | マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. | 3dカメラ |
| US6570555B1 (en) | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
| US6363160B1 (en) | 1999-01-22 | 2002-03-26 | Intel Corporation | Interface using pattern recognition and tracking |
| US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
| US6299308B1 (en) | 1999-04-02 | 2001-10-09 | Cybernet Systems Corporation | Low-cost non-imaging eye tracker system for computer control |
| US6503195B1 (en) | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
| US6476834B1 (en) | 1999-05-28 | 2002-11-05 | International Business Machines Corporation | Dynamic creation of selectable items on surfaces |
| US6873723B1 (en) | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
| US6738066B1 (en) | 1999-07-30 | 2004-05-18 | Electric Plant, Inc. | System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display |
| US7113918B1 (en) | 1999-08-01 | 2006-09-26 | Electric Planet, Inc. | Method for video enabled electronic commerce |
| US7050606B2 (en) | 1999-08-10 | 2006-05-23 | Cybernet Systems Corporation | Tracking and gesture recognition system particularly suited to vehicular control applications |
| US6663491B2 (en) | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
| US6633294B1 (en) | 2000-03-09 | 2003-10-14 | Seth Rosenthal | Method and apparatus for using captured high density motion for animation |
| EP1152261A1 (en) | 2000-04-28 | 2001-11-07 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves |
| US6640202B1 (en) | 2000-05-25 | 2003-10-28 | International Business Machines Corporation | Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications |
| US6731799B1 (en) | 2000-06-01 | 2004-05-04 | University Of Washington | Object segmentation with background extraction and moving boundary techniques |
| US6810135B1 (en) | 2000-06-29 | 2004-10-26 | Trw Inc. | Optimized human presence detection through elimination of background interference |
| US6788809B1 (en) | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
| JP2002031516A (ja) | 2000-07-18 | 2002-01-31 | Asahi Optical Co Ltd | 3次元画像入力装置 |
| US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
| US7058204B2 (en) | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
| US7039676B1 (en) | 2000-10-31 | 2006-05-02 | International Business Machines Corporation | Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session |
| US6539931B2 (en) | 2001-04-16 | 2003-04-01 | Koninklijke Philips Electronics N.V. | Ball throwing assistant |
| US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
| US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
| JP3420221B2 (ja) | 2001-06-29 | 2003-06-23 | 株式会社コナミコンピュータエンタテインメント東京 | ゲーム装置及びプログラム |
| US6937742B2 (en) | 2001-09-28 | 2005-08-30 | Bellsouth Intellectual Property Corporation | Gesture activated home appliance |
| KR100429799B1 (ko) * | 2001-11-10 | 2004-05-03 | 삼성전자주식회사 | 디스플레이 장치에서의 투사 광의 세기 제어 장치 및 방법 |
| JP2003279887A (ja) * | 2002-03-22 | 2003-10-02 | Nec Viewtechnology Ltd | Dmdプロジェクターとその映像信号補正方法 |
| EP1497160B2 (de) | 2002-04-19 | 2010-07-21 | IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. | Sicherheitsvorrichtung für ein fahrzeug |
| US7170492B2 (en) | 2002-05-28 | 2007-01-30 | Reactrix Systems, Inc. | Interactive video display system |
| US7348963B2 (en) * | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
| US20050122308A1 (en) * | 2002-05-28 | 2005-06-09 | Matthew Bell | Self-contained interactive video display system |
| US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
| US7489812B2 (en) | 2002-06-07 | 2009-02-10 | Dynamic Digital Depth Research Pty Ltd. | Conversion and encoding techniques |
| US20040037450A1 (en) * | 2002-08-22 | 2004-02-26 | Bradski Gary R. | Method, apparatus and system for using computer vision to identify facial characteristics |
| US7576727B2 (en) | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
| JP4235729B2 (ja) | 2003-02-03 | 2009-03-11 | 国立大学法人静岡大学 | 距離画像センサ |
| US7151521B2 (en) | 2003-03-31 | 2006-12-19 | Intel Corporation | Methods and apparatus for driving pixels in a microdisplay |
| EP1477924B1 (en) | 2003-03-31 | 2007-05-02 | HONDA MOTOR CO., Ltd. | Gesture recognition apparatus, method and program |
| US6919549B2 (en) * | 2003-04-11 | 2005-07-19 | Canesta, Inc. | Method and system to differentially enhance sensor dynamic range |
| US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
| US7372977B2 (en) | 2003-05-29 | 2008-05-13 | Honda Motor Co., Ltd. | Visual tracking using depth data |
| JP4546956B2 (ja) | 2003-06-12 | 2010-09-22 | 本田技研工業株式会社 | 奥行き検出を用いた対象の向きの推定 |
| WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
| US7379563B2 (en) | 2004-04-15 | 2008-05-27 | Gesturetek, Inc. | Tracking bimanual movements |
| US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
| US7704135B2 (en) | 2004-08-23 | 2010-04-27 | Harrison Jr Shelton E | Integrated game system, method, and device |
| KR100604323B1 (ko) | 2004-08-28 | 2006-07-24 | 삼성테크윈 주식회사 | 내장형 카메라 장치 및 이를 구비한 휴대폰 |
| KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
| ES2791718T3 (es) | 2005-01-07 | 2020-11-05 | Qualcomm Inc | Detección y seguimiento de objetos en imágenes |
| JP2008537190A (ja) | 2005-01-07 | 2008-09-11 | ジェスチャー テック,インコーポレイテッド | 赤外線パターンを照射することによる対象物の三次元像の生成 |
| JP5080273B2 (ja) | 2005-01-07 | 2012-11-21 | クアルコム,インコーポレイテッド | オプティカルフローに基づく傾きセンサー |
| US7598942B2 (en) | 2005-02-08 | 2009-10-06 | Oblong Industries, Inc. | System and method for gesture based control system |
| JP4686595B2 (ja) | 2005-03-17 | 2011-05-25 | 本田技研工業株式会社 | クリティカルポイント解析に基づくポーズ推定 |
| BRPI0613165A2 (pt) | 2005-05-17 | 2010-12-21 | Gesturetek Inc | saìda de sinal sensìvel à orientação |
| ATE412882T1 (de) | 2005-08-12 | 2008-11-15 | Mesa Imaging Ag | Hochempfindliches, schnelles pixel für anwendung in einem bildsensor |
| US20080026838A1 (en) | 2005-08-22 | 2008-01-31 | Dunstan James E | Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games |
| US7450736B2 (en) | 2005-10-28 | 2008-11-11 | Honda Motor Co., Ltd. | Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers |
| US7911207B2 (en) | 2005-11-16 | 2011-03-22 | Board Of Regents, The University Of Texas System | Method for determining location and movement of a moving object |
| JP4569506B2 (ja) | 2006-03-31 | 2010-10-27 | 株式会社ニコン | カメラシステム |
| US7701439B2 (en) | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
| US8970680B2 (en) | 2006-08-01 | 2015-03-03 | Qualcomm Incorporated | Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device |
| US7643745B2 (en) | 2006-08-15 | 2010-01-05 | Sony Ericsson Mobile Communications Ab | Electronic device with auxiliary camera function |
| EP2064676B1 (en) * | 2006-09-21 | 2011-09-07 | Thomson Licensing | A method and system for three-dimensional model acquisition |
| JP5395323B2 (ja) | 2006-09-29 | 2014-01-22 | ブレインビジョン株式会社 | 固体撮像素子 |
| US7412077B2 (en) | 2006-12-29 | 2008-08-12 | Motorola, Inc. | Apparatus and methods for head pose estimation and head gesture detection |
| JP2008241695A (ja) * | 2007-02-27 | 2008-10-09 | Fujifilm Corp | 測距装置及び測距方法 |
| US7729530B2 (en) | 2007-03-03 | 2010-06-01 | Sergey Antonov | Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system |
| US8994757B2 (en) * | 2007-03-15 | 2015-03-31 | Scalable Display Technologies, Inc. | System and method for providing improved display quality by display adjustment and image processing using optical feedback |
| WO2008120217A2 (en) | 2007-04-02 | 2008-10-09 | Prime Sense Ltd. | Depth mapping using projected patterns |
| WO2008139960A1 (ja) | 2007-05-07 | 2008-11-20 | Nikon Corporation | 投射機能付きカメラ、投射機能付き携帯電話および投射機能付き携帯電子機器 |
| JP5217268B2 (ja) * | 2007-06-22 | 2013-06-19 | 株式会社リコー | 携帯型電子機器 |
| US7852262B2 (en) | 2007-08-16 | 2010-12-14 | Cybernet Systems Corporation | Wireless mobile indoor/outdoor tracking system |
| US8166421B2 (en) | 2008-01-14 | 2012-04-24 | Primesense Ltd. | Three-dimensional user interface |
| US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
| WO2009124601A1 (en) | 2008-04-11 | 2009-10-15 | Ecole Polytechnique Federale De Lausanne Epfl | Time-of-flight based imaging system using a display as illumination source |
| CN101254344B (zh) | 2008-04-18 | 2010-06-16 | 李刚 | 场地方位与显示屏点阵按比例相对应的游戏装置和方法 |
| DE112009001652T5 (de) * | 2008-07-08 | 2012-01-12 | Chiaro Technologies, Inc. | Mehrkanal-Erfassung |
| GB2461894B (en) | 2008-07-16 | 2010-06-23 | Light Blue Optics Ltd | Holographic image display systems |
| US8890952B2 (en) | 2008-07-29 | 2014-11-18 | Microsoft Corporation | Imaging system |
| CN101650520A (zh) | 2008-08-15 | 2010-02-17 | 索尼爱立信移动通讯有限公司 | 移动电话的可视激光触摸板和方法 |
| JP5448617B2 (ja) * | 2008-08-19 | 2014-03-19 | パナソニック株式会社 | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ |
| US8717416B2 (en) | 2008-09-30 | 2014-05-06 | Texas Instruments Incorporated | 3D camera using flash with structured light |
| US8337020B2 (en) | 2008-11-02 | 2012-12-25 | Citizen Finetech Miyota Co., Ltd. | Polarization conversion and color-combination techniques for pico projector illuminators |
-
2010
- 2010-09-28 US US12/892,589 patent/US8681255B2/en active Active
-
2011
- 2011-08-29 WO PCT/US2011/049606 patent/WO2012047410A1/en not_active Ceased
- 2011-08-29 CA CA2812433A patent/CA2812433C/en active Active
- 2011-08-29 JP JP2013531589A patent/JP5894600B2/ja active Active
- 2011-08-29 EP EP11831132.3A patent/EP2622847B1/en active Active
- 2011-08-29 KR KR1020137007745A patent/KR101861393B1/ko not_active Expired - Fee Related
- 2011-08-29 ES ES11831132.3T patent/ES2587436T3/es active Active
- 2011-09-27 CN CN201110306956.0A patent/CN102510461B/zh active Active
-
2013
- 2013-03-07 IL IL225090A patent/IL225090A/en active IP Right Grant
Also Published As
| Publication number | Publication date |
|---|---|
| KR20130138225A (ko) | 2013-12-18 |
| EP2622847B1 (en) | 2016-06-29 |
| JP2013546222A (ja) | 2013-12-26 |
| US8681255B2 (en) | 2014-03-25 |
| US20120075534A1 (en) | 2012-03-29 |
| CN102510461A (zh) | 2012-06-20 |
| CN102510461B (zh) | 2015-04-29 |
| CA2812433A1 (en) | 2012-04-12 |
| KR101861393B1 (ko) | 2018-05-28 |
| CA2812433C (en) | 2018-05-15 |
| WO2012047410A1 (en) | 2012-04-12 |
| EP2622847A1 (en) | 2013-08-07 |
| JP5894600B2 (ja) | 2016-03-30 |
| IL225090A (en) | 2017-08-31 |
| EP2622847A4 (en) | 2014-08-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2587436T3 (es) | Cámara de profundidad de baja potencia integrada y dispositivo de proyección | |
| CN107885023B (zh) | 图像投影设备中用于亮度和自动聚焦控制的飞行时间感测 | |
| JP5767403B2 (ja) | 双方向ディスプレイおよびその制御方法 | |
| KR20220164480A (ko) | 다중 광학 경로 이미징 기법들 및 능동 심도 감지 기법들을 위한 공유된 이미터 | |
| KR20220002637A (ko) | 전자 장치의 제어 방법 및 전자 장치 | |
| US8643759B2 (en) | Image pickup apparatus and control method therefor | |
| US20200372663A1 (en) | Depth Cameras, Electronic Devices, and Image Acquisition Methods | |
| WO2020259334A1 (zh) | 调节方法、调节装置、终端及计算机可读存储介质 | |
| ES2908209T3 (es) | Procedimiento para la medición de la latencia | |
| WO2012047536A2 (en) | Image projection apparatus tiling system and method | |
| CN109581787A (zh) | 一种使用激光点扫描的水下成像装置及方法 | |
| CN107836112B (zh) | 投影系统 | |
| KR20210029269A (ko) | 3차원 영상 생성 장치 및 방법 | |
| WO2020248896A1 (zh) | 调节方法、终端及计算机可读存储介质 | |
| US9459351B2 (en) | Image system | |
| KR20110080290A (ko) | 3d 정보 획득장치 및 이의 광원 구동방법, 그리고, 3d 정보 획득 시스템 | |
| CN102073200B (zh) | 数字图像处理器和数字图像处理器中提高用户识别的方法 | |
| US9736387B2 (en) | Irradiation device, irradiation method, and program for switching irradiation regions | |
| JP2012108232A (ja) | 電子機器 | |
| JP2025098305A (ja) | 測距装置 | |
| JP6671932B2 (ja) | 発光装置およびその制御方法 | |
| JP2015001670A (ja) | 照明装置、撮像装置、カメラシステム及び制御方法 | |
| JP2010243765A (ja) | 表示装置、及び光学機器の表示装置 | |
| JP2013238730A (ja) | 撮像装置、撮像方法およびプログラム | |
| KR20100092254A (ko) | 발광 수단과 그를 이용하는 휴대용 단말기 |