ES2986629T3 - Aparato, sistema y método de determinación de una distancia pupilar - Google Patents
Aparato, sistema y método de determinación de una distancia pupilar Download PDFInfo
- Publication number
- ES2986629T3 ES2986629T3 ES16792276T ES16792276T ES2986629T3 ES 2986629 T3 ES2986629 T3 ES 2986629T3 ES 16792276 T ES16792276 T ES 16792276T ES 16792276 T ES16792276 T ES 16792276T ES 2986629 T3 ES2986629 T3 ES 2986629T3
- Authority
- ES
- Spain
- Prior art keywords
- distance
- user
- reflection
- camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
- A61B3/111—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring interpupillary distance
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C13/00—Assembling; Repairing; Cleaning
- G02C13/003—Measuring during assembly or fitting of spectacles
- G02C13/005—Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Radar Systems Or Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
- Paper (AREA)
Abstract
Algunas realizaciones demostrativas incluyen aparatos, sistemas y/o métodos para determinar una distancia pupilar. Por ejemplo, un producto puede incluir uno o más medios de almacenamiento no transitorios legibles por computadora tangibles que incluyen instrucciones ejecutables por computadora que pueden funcionar para, cuando son ejecutadas por al menos un procesador de computadora, permitir que el al menos un procesador de computadora implemente operaciones de medición de una distancia pupilar entre las pupilas de un usuario. Las operaciones pueden incluir recibir una imagen capturada que comprende un primer y un segundo reflejo de una luz de una fuente de luz, comprendiendo el primer reflejo un reflejo de la luz de una primera pupila del usuario, y comprendiendo el segundo reflejo un reflejo de la luz de una segunda pupila del usuario; y determinar la distancia pupilar en función de las ubicaciones del primer y el segundo reflejo en la imagen capturada y una distancia estimada entre un dispositivo de captura de imágenes y las pupilas del usuario, cuando se captura la imagen. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Aparato, sistema y método de determinación de una distancia pupilar
Referencia cruzada
Esta solicitud reivindica el beneficio y la prioridad de la solicitud de patente provisional de EE. UU. N.° 62/159.490 titulada "APARATO, SISTEMA Y MÉTODO DE DETERMINACIÓN DE UNA DISTANCIA PUPILAR", presentada el 11 de mayo de 2015.
Campo técnico
Las realizaciones descritas en el presente documento se refieren generalmente a la determinación de una distancia pupilar.
Antecedentes
Una distancia pupilar (PD, por sus siglas en inglés) puede ser medida entre las pupilas de un usuario, p. ej., además de la prescripción refractiva para gafas, p. ej., gafas monofocales o multifocales.
Los centros ópticos de las gafas pueden estar configurados para coincidir con una línea de visión del usuario, por ejemplo, para proporcionar una visión clara y cómoda.
Los anteojos multifocales (MF), que pueden tener una zona de visión lejana estrecha, pueden requerir una mayor precisión en la medición de PD que los anteojos monofocales.
La PD puede ser expresada como dos números desiguales de distancias desde el centro de la montura, p. ej., el centro de la nariz del usuario, por ejemplo, si la simetría en la PD no es siempre una constitución, p. ej., en casos de estrabismo.
La discrepancia en la distancia pupilar puede provocar, por ejemplo, visión doble, dolores de cabeza y/u otros efectos no deseados.
El grado de un posible error en la distancia pupilar puede depender de la potencia de la lente, p. ej., una Rx de anteojos. Por ejemplo, para una potencia baja de la lente, errores mayores en la distancia pupilar pueden no afectar a la visión del usuario.
Una tolerancia de error de la distancia pupilar puede no ser simétrica. En un ejemplo, si una PD medida de un usuario es inferior a una PD real del usuario, p. ej., un error negativo, el usuario puede ser capaz de compensar el error negativo, por ejemplo, mediante una ligera acomodación de los ojos, lo que puede provocar una convergencia ocular que puede reducir la PD real del usuario. En otro ejemplo, una PD medida de un usuario, que es mayor que la PD real del usuario, p. ej., un error positivo, puede dar lugar a cierto grado de visión doble y/u otros inconvenientes. El documento EP-A-1718467 divulga un método para medir una distancia pupilar entre las pupilas de un usuario, comprendiendo el método: recibir una imagen captada que comprende reflejos primero y segundo de una luz de una fuente luminosa única, comprendiendo el primer reflejo un reflejo de dicha luz de una primera pupila de dicho usuario, y comprendiendo el segundo reflejo un reflejo de dicha luz de una segunda pupila de dicho usuario; y procesar la imagen captada por una única cámara para determinar las ubicaciones de los reflejos primero y segundo, determinar una primera distancia estimada entre la cámara y las pupilas del usuario cuando la imagen es captada por la cámara; determinar la distancia pupilar en función de la primera distancia estimada y de la segunda distancia estimada y de las ubicaciones identificadas de dichos reflejos primero y segundo.
Breve descripción de los dibujos
Para simplicidad y claridad de ilustración, los elementos mostrados en las figuras no necesariamente han sido dibujados a escala. Por ejemplo, las dimensiones de algunos de los elementos pueden estar exageradas en relación con otros elementos para mayor claridad de la presentación. Por otra parte, los números de referencia pueden repetirse entre las figuras para indicar elementos correspondientes o análogos. Las figuras se enumeran a continuación. La Fig. 1 es una ilustración esquemática del diagrama de bloques de un sistema, de acuerdo con algunas realizaciones demostrativas.
La Fig. 2 es una ilustración esquemática de una lente y un sensor de una cámara, de acuerdo con algunas realizaciones demostrativas.
La Fig. 3 es una ilustración esquemática de un diagrama de formación de imágenes para captar una imagen de un objeto, de acuerdo con algunas realizaciones demostrativas.
La Fig. 4 es una ilustración esquemática de un diagrama de formación de imágenes para captar una imagen de un objeto inclinado, de acuerdo con algunas realizaciones demostrativas.
La Fig. 5 es una ilustración esquemática de un diagrama de formación de imágenes para captar un objeto mediante una cámara inclinada, de acuerdo con algunas realizaciones demostrativas.
La Fig. 6 es una ilustración esquemática de una sección horizontal del ojo derecho de un usuario, de acuerdo con algunas realizaciones demostrativas.
La Fig. 7 es una ilustración esquemática de una distancia pupilar entre dos ojos de un usuario que mira hacia una cámara, de acuerdo con algunas realizaciones demostrativas.
Las Fig. 8A-8F son ilustraciones esquemáticas de histogramas correspondientes a una pluralidad de simulaciones de Monte Carlo, de acuerdo con algunas realizaciones demostrativas.
La Fig. 9 es una ilustración esquemática de diagrama de flujo de un método para determinar una distancia pupilar (PD) de un usuario, de acuerdo con algunas realizaciones demostrativas.
La Fig. 10 es una ilustración esquemática de diagrama de flujo de un método para determinar una PD de un usuario, de acuerdo con algunas realizaciones demostrativas.
La Fig. 11 es una ilustración esquemática de un producto, de acuerdo con algunas realizaciones demostrativas.
Descripción detallada
En la siguiente descripción detallada, se exponen numerosos detalles específicos con el fin de proporcionar una comprensión completa de algunas realizaciones. Sin embargo, un experto en la materia entenderá que algunas realizaciones pueden ponerse en práctica sin estos detalles específicos. En otros casos, los métodos, procedimientos, componentes, unidades y/o circuitos bien conocidos no se han descrito en detalle para no complicar el análisis.
Algunas partes de la siguiente descripción detallada se presentan en términos de algoritmos y representaciones simbólicas de operaciones en bits de datos o señales digitales binarias en una memoria de ordenador. Estas descripciones y representaciones algorítmicas pueden ser las técnicas usadas por los expertos en las técnicas de procesamiento de datos para transmitir la esencia de su trabajo a otros expertos.
Un algoritmo se considera en este caso y, en general, una secuencia autoconsistente de actos u operaciones que conducen a un resultado deseado. Estos incluyen manipulaciones físicas de cantidades físicas. Habitualmente, aunque no necesariamente, estas cantidades adoptan la forma de señales eléctricas o magnéticas capaces de ser almacenadas, transferidas, combinadas, comparadas y, de otro modo, manipuladas. A veces ha resultado conveniente, principalmente por razones de uso habitual, referirse a estas señales como bits, valores, elementos, símbolos, caracteres, términos, números o similares. Debe entenderse que, sin embargo, todos estos términos y otros términos similares deben asociarse con las cantidades físicas apropiadas y son simplemente etiquetas convenientes aplicadas a estas cantidades.
Los análisis del presente documento que utilizan términos tales como, por ejemplo, "procesamiento", "computación", "cálculo", "determinación", "establecimiento", "análisis", "comprobación", o similares, pueden referirse a una operación u operaciones y/o a un proceso o procesos de un ordenador, una plataforma informática, un sistema informático u otro dispositivo informático electrónico, que manipula y/o transforma datos representados como cantidades físicas (por ejemplo, electrónicas) en los registros y/o memorias del ordenador en otros datos representados de manera similar como cantidades físicas en los registros y/o memorias del ordenador u otro medio de almacenamiento de información que pueda almacenar instrucciones para realizar operaciones y/o procesos.
Los términos "pluralidad" y "una pluralidad", como se usan en el presente documento, incluyen, por ejemplo, "múltiple" o "dos o más". Por ejemplo, "una pluralidad de elementos" incluye dos o más elementos.
Las referencias a "una realización", "alguna realización", "realización demostrativa", "diversas realizaciones", etc., indican que la(s) realización(es) así descrita(s) pueden incluir un rasgo, estructura, o característica particular, pero no todas las realizaciones incluyen necesariamente el rasgo, estructura o característica particular. Además, el uso repetido de la expresión "en una realización" no se refiere necesariamente a la misma realización, aunque es posible.
Como se usa en el presente documento, a menos que se especifique lo contrario, el uso de los adjetivos ordinales "primero", "segundo", "tercero", etc., para describir un objeto común, simplemente indica que se hace referencia a diferentes instancias de objetos similares, y no pretende implicar que los objetos así descritos deban estar en una secuencia determinada, ya sea temporalmente, espacialmente, en clasificación, o de cualquier otra manera.
Algunas realizaciones, por ejemplo, pueden adoptar la forma de una realización completamente de hardware, una realización completamente de software, o una realización que incluye elementos tanto de hardware como de software. Algunas realizaciones pueden implementarse en software, que incluye, aunque sin limitación, firmware, software residente, microcódigos o similares.
Por otra parte, algunas realizaciones pueden adoptar la forma de un producto de programa informático accesible de un medio utilizable por ordenador o legible por ordenador que proporciona un código de programa para su uso por o en relación con un ordenador o cualquier sistema de ejecución de instrucciones. Por ejemplo, un medio utilizable por ordenador o legible por ordenador puede ser o puede incluir cualquier aparato que pueda contener, almacenar, comunicar, propagar o transportar el programa para su uso por o en relación con el sistema, aparato o dispositivo de ejecución de instrucciones.
En algunas realizaciones demostrativas, el medio puede ser un sistema (o aparato o dispositivo) electrónico, magnético, óptico, electromagnético, infrarrojo, o semiconductor o un medio de propagación. Algunos ejemplos demostrativos de un medio legible por ordenador pueden incluir una memoria semiconductora o de estado sólido, cinta magnética, un disquete de ordenador extraíble, una memoria de acceso aleatorio (RAM), una memoria de sólo lectura (ROM), una memoria FLASH, un disco magnético rígido y un disco óptico. Algunos ejemplos demostrativos de discos ópticos incluyen un disco compacto de memoria de sólo lectura (CD-ROM), disco compacto de lectura/escritura (CD-R/W) y DVD.
En algunas realizaciones demostrativas, un sistema de procesamiento de datos adecuado para almacenar y/o ejecutar un código de programa puede incluir al menos un procesador acoplado directa o indirectamente a elementos de memoria, por ejemplo, a través de un bus de sistema. Los elementos de memoria pueden incluir, por ejemplo, una memoria local empleada durante la ejecución real del código del programa, un almacenamiento masivo y memorias caché que pueden proporcionar un almacenamiento temporal de al menos parte del código del programa con el fin de reducir el número de veces que se debe recuperar el código del almacenamiento masivo durante la ejecución.
En algunas realizaciones demostrativas, los dispositivos de entrada/salida o E/S (incluyendo, aunque sin limitación, teclados, pantallas, dispositivos señaladores, etc.) pueden acoplarse al sistema ya sea directamente o a través de controladores de E/S. En algunas realizaciones demostrativas, pueden acoplarse adaptadores de red al sistema para permitir que el sistema de procesamiento de datos se acople a otros sistemas de procesamiento de datos o a impresoras remotas o dispositivos de almacenamiento, por ejemplo, a través de redes privadas o públicas. En algunas realizaciones demostrativas, los módems, los módems de cable y las tarjetas Ethernet son ejemplos demostrativos de tipos de adaptadores de red. Se pueden usar otros componentes adecuados.
Algunas realizaciones pueden incluir uno o más enlaces cableados o inalámbricos, pueden utilizar uno o más componentes de comunicación inalámbrica, pueden utilizar uno o más métodos o protocolos de comunicación inalámbrica, o similares. Algunas realizaciones pueden utilizar comunicación por cable y/o comunicación inalámbrica.
Algunas realizaciones pueden usarse junto con varios dispositivos y sistemas, por ejemplo, un teléfono móvil, un teléfono inteligente, un ordenador móvil, un ordenador portátil, un notebook, una tableta PC, un ordenador manual, un dispositivo manual, un dispositivo de asistente digital personal (PDA), un dispositivo PDA manual, un dispositivo móvil o portátil, un dispositivo no móvil o no portátil, un teléfono celular, un teléfono inalámbrico, un dispositivo que tiene una o más antenas internas y/o antenas externas, un dispositivo manual inalámbrico o similares.
Ahora se hace referencia a la Fig. 1, que ilustra esquemáticamente un diagrama de bloques de un sistema 100, de acuerdo con algunas realizaciones demostrativas.
Como se muestra en la Fig. 1, en algunas realizaciones demostrativas, el sistema 100 puede incluir un dispositivo 102.
En algunas realizaciones demostrativas, el dispositivo 102 puede implementarse usando componentes de hardware y/o componentes de software adecuados, por ejemplo, procesadores, controladores, unidades de memoria, unidades de almacenamiento, unidades de entrada, unidades de salida, unidades de comunicación, sistemas operativos, aplicaciones o similares.
En algunas realizaciones demostrativas, el dispositivo 102 puede incluir, por ejemplo, un dispositivo informático, un teléfono móvil, un teléfono inteligente, un teléfono celular, un portátil, un ordenador móvil, un ordenador portátil, un notebook, una tableta PC, un ordenador manual, un dispositivo manual, un dispositivo PDA, un dispositivo PDA manual, un dispositivo de comunicación inalámbrica, un dispositivo PDA que incorpora un dispositivo de comunicación inalámbrica o similares.
En algunas realizaciones demostrativas, el dispositivo 102 puede incluir, por ejemplo, uno o más de un procesador 191, una unidad de entrada 192, una unidad de salida 193, una unidad de memoria 194, y/o una unidad de almacenamiento 195. El dispositivo 102 puede incluir opcionalmente otros componentes de hardware y/o componentes de software adecuados. En algunas realizaciones demostrativas, algunos o todos los componentes de uno o más dispositivos 102 pueden estar contenidos en una carcasa o paquete común, y pueden estar interconectados o asociados operativamente usando uno o más enlaces cableados o inalámbricos. En otras realizaciones, los componentes de uno o más dispositivos 102 pueden distribuirse entre múltiples dispositivos separados.
En algunas realizaciones demostrativas, el procesador 191 puede incluir, por ejemplo, una unidad central de procesamiento (CPU), un procesador de señales digitales (DSP), uno o más núcleos de procesador, un procesador de un solo núcleo, un procesador de doble núcleo, un procesador de múltiples núcleos, un microprocesador, un procesador anfitrión, un controlador, una pluralidad de procesadores o controladores, un chip, un microchip, uno o más circuitos, un conjunto de circuitos, una unidad lógica, un circuito integrado (IC), un IC para aplicaciones específicas (ASIC), o cualquier otro procesador o controlador multipropósito o específico adecuado. El procesador 191 puede ejecutar instrucciones, por ejemplo, de un sistema operativo (OS) del dispositivo 102 y/o de una o más aplicaciones adecuadas.
En algunas realizaciones demostrativas, la unidad de entrada 192 puede incluir, por ejemplo, un teclado, un teclado numérico, un ratón, una pantalla táctil, un panel táctil, una bola de seguimiento, un lápiz óptico, un micrófono u otro dispositivo señalador o dispositivo de entrada adecuado. La unidad de salida 193 puede incluir, por ejemplo, un monitor, una pantalla, una pantalla táctil, una pantalla plana, una unidad de visualización de diodos emisores de luz (LED), una unidad de visualización tipo pantalla de cristal líquido (LCD), una unidad de visualización de plasma, uno o más altavoces de audio o auriculares, u otros dispositivos de salida adecuados.
En algunas realizaciones demostrativas, la unidad de memoria 194 incluye, por ejemplo, una memoria de acceso aleatorio (RAM), una memoria de sólo lectura (ROM), una RAM dinámica (DRAM), una DRAM síncrona (SD-RAM), una memoria flash, una memoria volátil, una memoria no volátil, una memoria caché, una memoria intermedia, una unidad de memoria a corto plazo, una unidad de memoria a largo plazo u otras unidades de memoria adecuadas. La unidad de almacenamiento 195 puede incluir, por ejemplo, una unidad de disco duro, una unidad de disquete, una unidad de disco compacto (CD), una unidad de CD-ROM, una unidad de DVD u otras unidades de almacenamiento extraíbles o no extraíbles adecuadas. La unidad de memoria 194 y/o unidad de almacenamiento 195, por ejemplo, pueden almacenar datos procesados por el dispositivo 102.
En algunas realizaciones demostrativas, el dispositivo 102 puede configurarse para comunicarse con uno o más dispositivos a través de una red inalámbrica y/o cableada 103.
En algunas realizaciones demostrativas, la red 103 puede incluir una red cableada, una red de área local (LAN), una red LAN inalámbrica (WLAN), una red de radio, una red celular, una red de fidelidad inalámbrica (WiFi), una red IR, una red Bluetooth (BT) y similares.
En algunas realizaciones demostrativas, el dispositivo 102 puede permitir que uno o más usuarios interactúen con uno o más procesos, aplicaciones y/o módulos del dispositivo 102, p. ej., como se describe en el presente documento.
En algunas realizaciones demostrativas, el dispositivo 102 puede estar configurado para realizar y/o ejecutar una o más operaciones, módulos, procesos, procedimientos y/o similares.
En algunas realizaciones demostrativas, el dispositivo 102 puede configurarse para determinar una distancia pupilar (PD) de un usuario del dispositivo 102, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la distancia pupilar puede incluir una distancia pupilar cercana o una distancia pupilar lejana.
En algunas realizaciones demostrativas, el sistema 100 puede incluir al menos un servicio, módulo, controlador y/o aplicación 160 configurado para determinar la distancia pupilar (PD) del usuario del dispositivo 102, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede incluir, o puede implementarse como, software, un módulo de software, una aplicación, un programa, una subrutina, instrucciones, un conjunto de instrucciones, código informático, palabras, valores, símbolos y similares.
En algunas realizaciones demostrativas, la aplicación 160 puede incluir una aplicación local que será ejecutada por el dispositivo 102. Por ejemplo, la unidad de memoria 194 y/o la unidad de almacenamiento 195 pueden almacenar instrucciones resultantes en la aplicación 160, y/o el procesador 191 puede estar configurado para ejecutar las instrucciones resultantes en la aplicación 160, p. ej., como se describe a continuación.
En otras realizaciones, la aplicación 160 puede incluir una aplicación remota que será ejecutada por cualquier sistema informático adecuado, p. ej., un servidor 170.
En algunas realizaciones demostrativas, el servidor 170 puede incluir al menos un servidor remoto, un servidor basado en la web, un servidor en la nube y/o cualquier otro servidor.
En algunas realizaciones demostrativas, el servidor 170 puede incluir una unidad de memoria y/o de almacenamiento 174 adecuadas que tenga almacenadas en su interior instrucciones resultantes de la aplicación 160, y un procesador 171 adecuado para ejecutar las instrucciones, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede incluir una combinación de una aplicación remota y una aplicación local.
En un ejemplo, la aplicación 160 puede ser descargada y/o recibida por el usuario del dispositivo 102 desde otro sistema informático, p. ej., servidor 170, de tal manera que la aplicación 160 pueda ser ejecutada localmente por los usuarios del dispositivo 102. Por ejemplo, las instrucciones pueden ser recibidas y almacenadas, p. ej., temporalmente, en una memoria o en cualquier memoria a corto plazo o memoria intermedia adecuada del dispositivo 102, p. ej., antes de ser ejecutadas por el procesador 191 del dispositivo 102.
En otro ejemplo, la aplicación 160 puede incluir un front-end que será ejecutado localmente por el dispositivo 102 y un back-end que será ejecutado por el servidor 170. Por ejemplo, una o más primeras operaciones de determinación de la distancia pupilar del usuario pueden realizarse localmente, por ejemplo, mediante el dispositivo 102, y/o se pueden realizar de forma remota una o más segundas operaciones de determinación de la distancia pupilar, por ejemplo, por el servidor 170, p. ej., como se describe a continuación.
En otras realizaciones, la aplicación 160 puede incluir cualquier otra disposición y/o esquema informático adecuado.
En algunas realizaciones demostrativas, el sistema 100 puede incluir una interfaz 110 para interactuar entre un usuario del dispositivo 102 y uno o más elementos del sistema 100, p. ej., aplicación 160.
En algunas realizaciones demostrativas, la interfaz 110 puede implementarse usando cualquier componente de hardware y/o componente de software adecuado, por ejemplo, procesadores, controladores, unidades de memoria, unidades de almacenamiento, unidades de entrada, unidades de salida, unidades de comunicación, sistemas operativos y/o aplicaciones.
En algunas realizaciones, la interfaz 110 puede implementarse como parte de cualquier módulo, sistema, dispositivo o componente del sistema 100 adecuado.
En otras realizaciones, la interfaz 110 puede implementarse como un elemento separado del sistema 100.
En algunas realizaciones demostrativas, la interfaz 110 puede implementarse como parte del dispositivo 102. Por ejemplo, la interfaz 110 puede estar asociada con y/o incluida como parte del dispositivo 102.
En un ejemplo, la interfaz 110 puede implementarse, por ejemplo, como middleware y/o como parte de cualquier aplicación adecuada del dispositivo 102. Por ejemplo, la interfaz 110 puede implementarse como parte de la aplicación 160 y/o como parte de un OS del dispositivo 102.
En algunas realizaciones demostrativas, la interfaz 160 puede implementarse como parte del servidor 170. Por ejemplo, la interfaz 110 puede estar asociada con y/o incluida como parte del servidor 170.
En un ejemplo, la interfaz 110 puede incluir, o puede ser parte de una aplicación basada en la Web, un sitio web, una página web, un plugin, un control ActiveX, un componente de contenido enriquecido (por ejemplo, un componente Flash o Shockwave) o similares.
En algunas realizaciones demostrativas, la interfaz 110 puede estar asociada con y/o puede incluir, por ejemplo, una puerta de enlace (GW) 112 y/o una interfaz de programación de aplicaciones (API) 114, por ejemplo, para comunicar información y/o comunicaciones entre elementos del sistema 100 y/o a una o más partes, usuarios, aplicaciones y/o sistemas internos o externos, por ejemplo.
En algunas realizaciones, la interfaz 110 puede incluir cualquier interfaz gráfica de usuario (GUI) 116 adecuada y/o cualquier otra interfaz adecuada.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia pupilar del usuario en función de una imagen captada del usuario, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la imagen captada puede ser captada por el usuario y puede incluir los ojos del usuario, p. ej., como se describe a continuación.
En un ejemplo, la extracción de una medición precisa de PD a partir de una imagen captada bidimensional (2D), puede incluir medir, evaluar y/o analizar uno o más parámetros para determinar un entorno tridimensional (3D), por ejemplo, para determinar la PD. Por ejemplo, el entorno 3D puede reflejar una cámara ubicada a una distancia del rostro del usuario y una ubicación de cada pupila del usuario mientras mira a la cámara, que puede tener un desplazamiento del centro de la pupila, p. ej., un desplazamiento de hasta 1 milímetro. La ubicación de la pupila puede coincidir con la línea de visión del usuario, p. ej., en un eje visual.
El dispositivo 102 incluye una cámara 118 configurada para captar la imagen.
El dispositivo 102 incluye una fuente luminosa 122 configurada para iluminar al usuario cuando se capta la imagen.
En algunas realizaciones demostrativas, la fuente luminosa 122 puede incluir un flash, una luz LED, o cualquier otra fuente de luz.
La aplicación 160 está configurada para recibir de la cámara 118 la imagen captada del usuario.
La imagen captada incluye reflejos primero y segundo de una luz de la fuente luminosa 122.
El primer reflejo incluye un reflejo de la luz de una primera pupila del usuario, una primera imagen de Purkinje de la primera pupila, y el segundo reflejo incluye un reflejo de la luz de una segunda pupila del usuario, una primera imagen de Purkinje de la segunda pupila.
La aplicación 160 está configurada para determinar la distancia pupilar del usuario, en función de las ubicaciones de los reflejos primero y segundo en la imagen captada, y una distancia estimada entre el dispositivo 102 y las pupilas del usuario, cuando se capta la imagen.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia pupilar del usuario, por ejemplo, en función de un número de píxeles entre los reflejos primero y segundo, y de una relación de píxel a milímetro (mm) de los píxeles, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia pupilar del usuario, por ejemplo, en función de uno o más atributos de la cámara 118, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia pupilar del usuario, por ejemplo, en función de un parámetro de radio del ojo y una distancia entre la cámara 118 y un plano que incluye las pupilas del usuario, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia pupilar del usuario, por ejemplo, en función de la información de orientación con respecto a una orientación del dispositivo 102, por ejemplo, si el dispositivo 102 está inclinado, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede recibir la imagen captada que incluye los reflejos primero y segundo de las pupilas primera y segunda del usuario.
En un ejemplo, la aplicación 160 puede configurarse para determinar la PD localmente, por ejemplo, si la aplicación 160 está implementada localmente por el dispositivo 102. Según este ejemplo, la cámara 118 puede configurarse para captar la imagen, y la aplicación 160 puede configurarse para recibir la imagen captada, p. ej., de la cámara 118, para determinar la distancia estimada entre el dispositivo 102 y las pupilas del usuario, y para determinar la distancia pupilar del usuario, p. ej., como se describe a continuación.
En otro ejemplo, la aplicación 160 puede configurarse para determinar la PD de forma remota, por ejemplo, si la aplicación 160 es implementada por el servidor 170, o si el back-end de la aplicación 160 es implementado por el servidor 170, p. ej., mientras que el front-end de la aplicación 160 es implementado por el dispositivo 102. Según este ejemplo, la cámara 118 puede configurarse para captar la imagen; el front-end de la aplicación 160 puede configurarse para recibir la imagen captada y determinar la distancia estimada entre el dispositivo 102 y las pupilas del usuario; y el servidor 170 y/o el back-end de la aplicación 160 pueden configurarse para determinar la distancia pupilar del usuario, p. ej., en función de la información recibida desde el front-end de la aplicación 160.
En un ejemplo, el dispositivo 102 y/o el front-end de la aplicación 160 pueden configurarse para enviar la imagen captada y la distancia estimada al servidor 170, p. ej., a través de la red 103; y/o el servidor 170 y/o el back-end de la aplicación 160 pueden estar configurados para recibir la imagen captada y/o la distancia estimada, y para determinar la distancia pupilar del usuario, por ejemplo, en función de la imagen captada y la distancia estimada recibida del dispositivo 102.
En algunas realizaciones demostrativas, la imagen captada puede incluir un objeto en el rostro del usuario ("el objeto de referencia").
En un ejemplo, la PD puede extraerse de una única imagen de una persona que mira el flash de la cámara 118, por ejemplo, mientras la cámara 118 capta la imagen, y la persona sostiene un objeto de un tamaño conocido cerca de una característica del rostro de la persona.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar una distancia estimada entre la cámara 118 y el objeto de referencia, por ejemplo, en función de una o más dimensiones del objeto en el rostro del usuario, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia estimada entre la cámara 118 y el objeto de referencia, por ejemplo, en función de la información de aceleración que indica una aceleración del dispositivo 102, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia estimada entre la cámara 118 y el objeto de referencia, por ejemplo, en función del objeto en el rostro del usuario y uno o más atributos de la cámara 118, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, uno o más atributos de la cámara 118 pueden incluir una longitud focal efectiva (EFL, por sus siglas en inglés) de una lente de la cámara 118, un campo de visión (FOV, por sus siglas en inglés) horizontal de un sensor de la cámara 118, un campo de visión vertical del sensor de la cámara 118, una resolución del sensor, una distancia ("un paso de sensor") entre dos píxeles adyacentes del sensor, y/o cualquier otro atributo adicional o alternativo de la cámara 118.
Se hace referencia a la Fig. 2, que ilustra esquemáticamente una lente 210 y un sensor 220 de una cámara, de acuerdo con algunas realizaciones demostrativas. Por ejemplo, la cámara 118 (Fig. 1) puede incluir la lente 210 y el sensor 220.
En algunas realizaciones demostrativas, como se muestra en la Fig. 2, la lente 210 puede tener una EFL 222, que puede ser dada y/o calibrada, p. ej., mediante el dispositivo 102 (Fig. 1), situado a una distancia igual a la EFL de la lente del sensor 220.
En algunas realizaciones demostrativas, un ángulo de visión horizontal, denotado ah, puede determinarse en función del tamaño horizontal del sensor 220 y de la EFL 222 de la lente 210.
En algunas realizaciones demostrativas, se puede determinar un ángulo de visión vertical, por ejemplo, en función del tamaño vertical del sensor 220.
En algunas realizaciones demostrativas, como se muestra en la Fig. 2, un paso de sensor 224 horizontal, denotadopasoh,puede definirse como la distancia entre los centros de cada dos píxeles adyacentes.
En algunas realizaciones demostrativas, se puede determinar el paso de sensor 224, por ejemplo, en función de la longitud horizontal del sensor y del número total de píxeles horizontales del sensor.
En algunas realizaciones demostrativas, se puede determinar el paso de sensor 224, por ejemplo, en función de la EFL 222, del ángulo de visión horizontal ah, y/o del ángulo vertical de visión, p. ej., de la siguiente manera:
Volviendo a la Fig. 1, en algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia estimada entre la cámara 118 y el objeto de referencia, por ejemplo, en función de los uno o más atributos de la cámara 118, p. ej., el ángulo de visión horizontal ah, la EFL222(Fig. 2), y/o el paso de sensor 224 (Fig. 2), por ejemplo, como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia estimada entre la cámara 118 y el objeto de referencia, por ejemplo, en función de los uno o más atributos de la cámara 118 y de una o más dimensiones del objeto de referencia, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, el objeto de referencia puede incluir un objeto que tenga una o más dimensiones conocidas, p. ej., que puedan medirse y/o darse. Por ejemplo, el objeto de referencia puede incluir una tarjeta de crédito, un billete, y/o similares.
En algunas realizaciones demostrativas, el objeto de referencia puede incluir un objeto o elemento facial que tenga una o más dimensiones conocidas, p. ej., que puedan medirse y/o darse. Por ejemplo, el objeto de referencia puede incluir un iris, un parámetro de radio del ojo y/o similares.
En algunas realizaciones demostrativas, la cámara 118 puede configurarse para captar la imagen que incluye el objeto de referencia.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia estimada entre la cámara 118 y el objeto de referencia, por ejemplo, en función de las dimensiones del objeto en la imagen captada, de las dimensiones reales del objeto y de los atributos de la cámara, p. ej., como se describe a continuación. Se hace referencia a la Fig. 3, que ilustra esquemáticamente un diagrama de formación de imágenes 300 para captar una imagen de un objeto 302, de acuerdo con algunas realizaciones demostrativas.
En algunas realizaciones demostrativas, como se muestra en la Fig. 3, una imagen 312 del objeto 302 puede ser captada a través de una lente 310 de una cámara. Por ejemplo, la cámara 118 (Fig. 1) puede incluir la lente 310. En algunas realizaciones demostrativas, como se muestra en la Fig. 3, el objeto 302 puede tener una altura, denotado h, que puede ser conocida y/o dada.
En algunas realizaciones demostrativas, como se muestra en la Fig. 3, la imagen 312 del objeto 302, p. ej., cuando se capta a través de la lente 310, puede tener una altura representada por imágenes, denotado h'.
En algunas realizaciones demostrativas, una distancia, denotado u, entre la lente 310 y el objeto 302 se puede determinar, por ejemplo, en función de la EFL de la lente 310, que puede ser conocida y/o dada, de la alturah,y/o de la altura representada por imágenesh',p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, se puede proporcionar la siguiente Ecuación, por ejemplo, en función de la similitud de triángulos en el esquema de formación de imágenes 300, p. ej., de la siguiente manera:
h v efl
h u u
<(>2<)>
en donde v es aproximadamente la EFL de la lente 310.
En algunas realizaciones demostrativas, la altura representada por imágenes h' de la imagen 312 puede basarse en un número de píxeles, denotadoh_píxeles_estimados,ocupada por la imagen 312, y un paso de sensor, denotadopaso,de la lente 310, p. ej., de la siguiente manera:
h'=paso* h'_píxeles_estimados
(3)
En algunas realizaciones demostrativas, la distanciaupuede determinarse, por ejemplo, en función de la Ecuación 2 y la Ecuación 3, p. ej., de la siguiente manera:
e fl* he fl h
u =h'<=>paso<*>h'_píxeles_estimados
(4)
En algunas realizaciones demostrativas, como se muestra en la Fig. 3, el objeto 302 puede ser vertical, p. ej., sin inclinación.
En algunas realizaciones demostrativas, un objeto que se va a captar con la cámara puede estar inclinado, p. ej., como se describe a continuación con referencia a la Fig. 4.
Se hace referencia a la Fig. 4, que ilustra esquemáticamente un diagrama de formación de imágenes 400 para captar una imagen de un objeto inclinado 402, de acuerdo con algunas realizaciones demostrativas.
En algunas realizaciones demostrativas, como se muestra en la Fig. 4, una imagen 412 del objeto inclinado 402 puede ser captada a través de una lente 410 de una cámara. Por ejemplo, la cámara 118 (Fig. 1) puede incluir la lente 410. En algunas realizaciones demostrativas, como se muestra en la Fig. 4, el objeto 402 puede tener una altura, denotado h, que puede ser conocida y/o dada.
En algunas realizaciones demostrativas, como se muestra en la Fig. 4, una imagen 412 del objeto 402, p. ej., cuando se capta a través de la lente 410, puede tener una altura representada por imágenes, denotadoh'.
En algunas realizaciones demostrativas, como se muestra en la Fig. 4, la altura representada por imágenesh'de la imagen 412 puede reflejar una proyección del objeto 402 sobre un plano 407 en un ángulo de inclinación, denotado9.
En algunas realizaciones demostrativas, como se muestra en la Fig. 4, la proyección de alturahpuede resultar en un error y/o una reducción, denotado Ah, de la alturahdel objeto 402, lo que puede reducir la altura representada por imágenesh'de la imagen 412.
En algunas realizaciones demostrativas, puede determinarse el error Ah en el tamaño del objeto h, p. ej., de la siguiente manera:
Ah= /? *(l-cos(í?))
(5)
En un ejemplo, para un error supuesto Ah, que puede producirse, por ejemplo, a partir de un ángulo de inclinación de±10°(grados), un error relativo de la altura puede ser de aproximadamente, p. ej., 1,5 %(porcentaje).
En algunas realizaciones demostrativas, el error relativo puede afectar a la distancia estimada, por ejemplo, en el mismo porcentaje.
Volviendo a la Fig. 1, en algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia estimada entre la cámara 118 y el objeto, por ejemplo, en función de una coordenada cartesiana 3D del objeto, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, el dispositivo 102 puede incluir un sensor 3D 124 configurado para determinar la coordenada cartesiana 3D del objeto.
En algunas realizaciones demostrativas, el sensor 3D 124 puede estar configurado para asignar el objeto a un conjunto de puntos, p. ej., 3 puntos, denotado{x,y,z},p. ej., en una coordenada cartesiana tridimensional.
En un ejemplo, el conjunto de puntos puede incluir una estructura proyectada, que incluye una estructura dependiente de la distancia, una distancia de la estructura de desenfoque, una estructura de triangulación basada en estéreo, y/o similares.
En algunas realizaciones demostrativas, una distancia, denotadod,entre el objeto y la cámara 118 se puede determinar, p. ej., de la siguiente manera:
d = ^ ( x k - x 0j (yk -y 0) (z* - z0)"
(6)
en donde {xo, yo, zo} denota la ubicación de la cámara, p. ej., en el mismo sistema de coordenadas cartesianas que el objeto, ykdenota un punto discreto en el objeto, que fue captado por el sensor 3D 124.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para estimar la distancia de la cámara al objeto, por ejemplo, en función de la información del sensor 3D 124.
En algunas realizaciones demostrativas, el sensor 3D 124 puede configurarse para proporcionar información que describa cada píxel de una imagen o cada grupo de píxeles de la imagen en función de la distancia de la cámara o en función de la dimensión absoluta, p. ej., en metros, pulgadas o cualquier otra unidad de tamaño.
En un ejemplo, la función de distancia puede permitir que la aplicación 160 determine la distancia entre el objeto y la cámara 118.
En otro ejemplo, la función de dimensión absoluta puede permitir determinar una distancia a un objeto, por ejemplo, en función de la Ecuación 4. En un ejemplo, la aplicación 160 puede determinar el tamaño del objetoh,por ejemplo, en función de la información del sensor 3D 124, por ejemplo, mediante una estimación de cuántos píxeles tiene la altura representada por imágenes del objeto adquirido en la imagen.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia entre la cámara 118 y el ojo del usuario, p. ej., incluso sin usar el objeto, por ejemplo, mediante el uso de información de aceleración correspondiente a la aceleración del dispositivo 102, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia estimada entre la cámara 118 y los ojos del usuario, por ejemplo, en función de la información de aceleración que indica la aceleración del dispositivo 102, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, el dispositivo 102 puede incluir un acelerómetro 126 para proporcionar a la aplicación 160 la información de aceleración del dispositivo 102.
En algunas realizaciones demostrativas, el acelerómetro 126 puede configurarse para proporcionar la información de aceleración en un momento dado, por ejemplo, para cada eje, p. ej., del sistema de coordenadas cartesianas.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia entre la cámara 118 y los ojos del usuario, por ejemplo, en función de la satisfacción de un conjunto de dos condiciones, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede determinar la distancia entre la cámara 118 y los ojos del usuario, por ejemplo, después de realizar un procedimiento de inicialización, que puede incluir establecer una distancia inicial, denotadoxo,entre el ojo del usuario y la cámara 118, al sostener el dispositivo 102 cerca del ojo del usuario.
En algunas realizaciones demostrativas, la aplicación 160 puede hacer que el dispositivo 102 indique al usuario que comience la medición de la distancia entre la cámara 118 y los ojos del usuario, por ejemplo, después del procedimiento de inicialización, instruyendo al usuario a mover el dispositivo 102 lejos de los ojos.
En algunas realizaciones demostrativas, la aplicación 160 puede recibir del acelerómetro 126 la información de aceleración del dispositivo 102, p. ej., en uno o más, p. ej., todos, los ejes del sistema de coordenadas cartesianas, por ejemplo, según el movimiento del dispositivo 102.
En algunas realizaciones demostrativas, la aplicación 160 puede determinar una distancia del eje x en el eje X, denotadox(t'),en un momento dado, por ejemplo, en función de la información de aceleración en el eje X, denotadoax(t),en el momento dado, p. ej., de la siguiente manera:
En algunas realizaciones demostrativas, la aplicación 160 puede determinar la distancia del eje xx(t'),por ejemplo, en función de una velocidad, denotado vx(t'), del dispositivo 102 en el momento dado, p. ej., de la siguiente manera:
vÁty\0aAty¡t
( 8)
En algunas realizaciones demostrativas, la aplicación 160 puede determinar una distancia del eje Y en el eje Y, denotadoy(t’),por ejemplo, en función de la aceleración, denotadoay(t),del dispositivo 102 en el eje Y, p. ej., de manera similar a determinar la distanciax(t').
En algunas realizaciones demostrativas, la aplicación 160 puede determinar una distancia del eje Z en el eje Z, denotadoz(t'),por ejemplo, en función de la aceleración, denotadoaz(t),del dispositivo 102 en el eje Z, p. ej., de manera similar a determinar la distanciax(t').
En algunas realizaciones demostrativas, la aplicación 160 puede determinar la distancia estimada, denotador(t'),de la cámara 118 desde el ojo, por ejemplo, en función de la distancia del eje X, la distancia del eje Y y la distancia del eje Z, p. ej., de la siguiente manera:
En algunas realizaciones demostrativas, una precisión de la distancia estimadar(t')puede aumentarse, por ejemplo, usando más de una medida para estimar la distancia, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para usar la información de aceleración en combinación con información de otros sensores de medición de distancia, por ejemplo, para aumentar el intervalo de medición, fiabilidad, precisión y/o sensibilidad.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para aumentar la precisión de la estimación de la distancia mediante el acelerómetro 126, por ejemplo, mediante la integración de una o más imágenes captadas por la cámara 118, por ejemplo, además de la información de aceleración.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para controlar, provocar, activar y/o instruir a la cámara 118 a captar una o más imágenes, por ejemplo, durante el movimiento del dispositivo 102, p. ej., después del procedimiento de inicialización.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para usar información de las imágenes captadas, por ejemplo, para aumentar la precisión de la distancia estimada, p. ej., en función de la información de aceleración.
En algunas realizaciones demostrativas, la aplicación 160 puede usar la información de las imágenes captadas, por ejemplo, cuando las imágenes captadas incluyen un objeto, que tiene dimensiones conocidas, p. ej., como se ha descrito anteriormente.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar una distancia entre un par de imágenes de las imágenes captadas, por ejemplo, en función de un cambio en el aumento del objeto.
En algunas realizaciones demostrativas, un error de la información del acelerómetro puede no acumularse a lo largo del movimiento del dispositivo 102, por ejemplo, si se usa la distancia entre el par de imágenes para evaluar la información de aceleración.
En un ejemplo, el procedimiento de inicialización se puede realizar en un tiempo, denotado t'<0>, seguido de adquisiciones de N cámara en tiempos, denotado{t'i, t'2, t'3,t4...t'w}, y en distancias, denotado{r'i, r'2, r'3,r4...r'w}, que se determinan a partir de los datos del sensor de información del acelerómetro y los tamaños relacionados, denotado {h'1, h '2, h 3, h4...hn},del objeto en las imágenes captadas.
En algunas realizaciones demostrativas, se puede realizar una optimización de las mediciones de distancia relacionadas con la información del acelerómetro para reducir el error de la información del acelerador, por ejemplo, cuando todos las imágenes captadas corresponden al mismo tamañohdel objeto.
En algunas realizaciones demostrativas, se puede definir una ecuación para optimizar el error mínimo, p. ej., de la siguiente manera:
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar una distancia entre un plano de las pupilas del usuario ("el plano de las pupilas") y la cámara 118, por ejemplo, para determinar la distancia pupilar del usuario.
En algunas realizaciones demostrativas, la aplicación 160 puede determinar la distancia entre el plano de las pupilas y la cámara 118, por ejemplo, después de determinar la distancia de la cámara 118 al objeto, por ejemplo, usando el sensor 3D 124, el acelerómetro 126, y/o las imágenes captadas incluyendo el objeto, p. ej., como se ha descrito anteriormente.
En algunas realizaciones demostrativas, el cálculo de la distancia entre el plano de las pupilas y la cámara 118 puede permitir determinar un aumento en el plano de las pupilas, que puede permitir calcular la distancia absoluta entre las pupilas.
En algunas realizaciones demostrativas, calcular la distancia entre el plano de las pupilas y la cámara 118 puede permitir determinar el ángulo en el que los ojos miraban a la cámara, por ejemplo, para acomodar la convergencia del ojo al mirar a la cámara 118.
En algunas realizaciones demostrativas, suponiendo que la cámara 118 se adapta a la aberración de distorsión creada a partir de un sensor plano y una lente no óptima, el aumento a través de un plano perpendicular al sensor, o el vértice de la lente, de la cámara 118, puede ser uniforme y las distorsiones de cojín y de barril pueden ser mínimas.
En algunas realizaciones demostrativas, una ampliación, denotadoMobjeto(distanáa_entre_objeto_y_cámam),puede definir una conversión entre un número estimado de píxeles, denotadohobj_píxeles_estimados,de una dimensión captada, denotadoh3bj,del objeto en la imagen captada en una perpendicular plana al sensor de la cámara 118, y una dimensión absoluta del objeto, denotadohobj,en un plano que incluye el objeto.
En algunas realizaciones demostrativas, la determinación del aumento puede permitir determinar una relación de píxel a milímetro, que puede permitir calcular la PD a partir de la imagen captada, por ejemplo, calculando un número de píxeles, p. ej., como se describe a continuación.
En un ejemplo, se puede suponer que la cámara 118 puede estar inclinada y una o más características en la imagen captada pueden estar a diferentes distancias de la cámara 118. Según este ejemplo, cada conjunto de píxeles de la imagen captada puede representar un aumento diferente.
En algunas realizaciones demostrativas, la ampliación puede basarse en la distancia entre la cámara 118 y el objeto, p. ej., de la siguiente manera:
v
M obj e t o (distancia_entre_objeto_yJa_cámara)
distancia_entre_objeto_y_la_cámara
ef l
distancia_entre_objeto_y_la_cámara
(11)
En algunas realizaciones demostrativas, la dimensión absoluta, p. ej., alturahobj,del objeto se puede determinar en función del aumento y la dimensión representada por imágenes, p. ej., la altura representada por imágenes,h'obj,p. ej., como se indica de la siguiente manera:
hobj = h'0bj*Mobjeto(distancia_entre_objeto_y_la_cámará) =
= h. 'obj _píxeles_estimados*paso*Mobjeto(distancia_entre_objeto_y_la_cámara)
(12)
En algunas realizaciones demostrativas, el objeto no puede estar posicionado en el plano de las pupilas. Por ejemplo, el objeto puede colocarse en la frente del usuario.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar un cambio de aumento entre un plano de objeto, que incluye el objeto y el plano de las pupilas, teniendo en cuenta la inclinación de la cámara de adquisición 118.
En algunas realizaciones demostrativas, la aplicación 160 puede determinar la distancia entre un plano de las pupilas del usuario y la cámara 118, por ejemplo, en función de un desplazamiento axial entre el objeto y las pupilas a lo largo de un eje perpendicular a un plano que incluye el objeto, por ejemplo, el plano del objeto, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar el desplazamiento axial entre el objeto y las pupilas a lo largo del eje perpendicular al plano que incluye el objeto, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, calcular el desplazamiento axial puede permitir determinar el cambio de aumento entre el plano del objeto y el plano de las pupilas.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar el cambio de aumento, mientras se considera una inclinación de la cámara 118.
En un ejemplo, la cámara 118 no puede estar vertical al suelo, por ejemplo, al captar la imagen que incluye el objeto.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia entre el plano de las pupilas y el plano del objeto, por ejemplo, en función del desplazamiento axial y la inclinación de la cámara 180, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, el dispositivo 102 puede incluir un estimador de orientación 128, configurado para determinar una orientación del dispositivo 102, y/o una orientación de uno o más elementos del dispositivo 102, p. ej., la cámara 118.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para recibir, p. ej., del estimador de orientación 128, información de orientación que indica una orientación del dispositivo 102, por ejemplo, cuando se capta la imagen.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia pupilar del usuario, por ejemplo, en función de la información de orientación.
En algunas realizaciones demostrativas, la información de orientación puede indicar una orientación de la cámara 118. En algunas realizaciones demostrativas, la información de orientación puede indicar el ángulo de inclinación de la cámara 118.
En un ejemplo, la aplicación 160 puede configurarse para determinar el ángulo de inclinación de la cámara 118, p. ej., cuando se capta la imagen, por ejemplo, en función de la orientación de la cámara 118 y/o de la orientación del dispositivo 102.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar la distancia pupilar del usuario, por ejemplo, en función de la información de orientación y del desplazamiento axial entre el objeto y las pupilas a lo largo de un eje perpendicular a un plano que incluye el objeto, p. ej., como se describe a continuación.
Se hace referencia a la Fig. 5, que ilustra esquemáticamente un diagrama de captura 500 para captar un objeto 502 mediante una cámara inclinada 518, de acuerdo con algunas realizaciones demostrativas. Por ejemplo, la cámara 518 puede realizar la funcionalidad de la cámara 118 (Fig. 1).
En algunas realizaciones demostrativas, como se muestra en la Fig. 5, la cámara 518 puede inclinarse en un ángulo de inclinación, denotadod,p. ej., con respecto al horizonte.
En algunas realizaciones demostrativas, como se muestra en la Fig. 5, la cámara 518 puede estar a distancia, denotadodistancia_del_obj_y_la_cámara,del objeto 502.
En algunas realizaciones demostrativas, como se muestra en la Fig. 5, el objeto 502 puede estar ubicado en un desplazamiento horizontal, denotado,desplazamiento_horizontal,y un desplazamiento vertical, denotadodesplazamiento_ver,de los ojos 506 del usuario.
En algunas realizaciones demostrativas, como se muestra en la Fig. 5, los ojos 530 pueden estar incluidos en un plano 527, denotadoplano_de_ojos,p. ej., el plano de las pupilas, que es perpendicular al sensor de la cámara 118.
En algunas realizaciones demostrativas, como se muestra en la Fig. 5, el objeto 502 puede estar incluido en un plano 529, denotadoplano_de_objeto,que es perpendicular al sensor de la cámara 118.
En algunas realizaciones demostrativas, como se muestra en la Fig. 5, puede haber un desplazamiento axial, denotadodesplazamiento_axial,sobre un eje perpendicular al plano 527 y al plano 529.
En algunas realizaciones demostrativas, como se muestra en la Fig. 5, el desplazamiento axial, puede definir una distancia entre el plano 527 y el plano 529.
En algunas realizaciones demostrativas, como se muestra en la Fig. 5, puede haber un desplazamiento vertical proyectado, denotadodesplazamiento_ver_proyectado,entre los centros de los ojos 530 y del objeto 502, cuando los centros de los ojos 530 y del objeto 502 se proyectan sobre el plano 529 y/o el plano 527.
En algunas realizaciones demostrativas, se puede suponer que la ampliación de la imagen captada es uniforme en todos los planos perpendiculares al sensor de la cámara, p. ej., el plano 527 y/o el plano 529.
En algunas realizaciones demostrativas, el desplazamiento axial puede determinarse en función del desplazamiento vertical proyectado, del desplazamiento horizontal y del ángulo de inclinación, p. ej., de la siguiente manera:
desplazamiento_horizontal-distancia_ver_proyectada*sen(8) desplazamiento _axial
cos(d)
(13)
En algunas realizaciones demostrativas, se puede determinar el desplazamiento vertical proyectado, por ejemplo, mediante el análisis de un desplazamiento vertical de los ojos 530 desde el objeto 502 en el plano proyectado, p. ej., el plano 529, por ejemplo, estimando un número de píxeles entre los centros de la cámara 518 y los ojos 530 en la imagen captada.
En algunas realizaciones demostrativas, el desplazamiento horizontal puede ser dado, calculado y/o puede ser predefinido, p. ej., aproximadamente 30 milímetros (mm).
En algunas realizaciones demostrativas, una ampliación, denotadoMojos,en el plano de las pupilas, p. ej., el plano 527, puede basarse en la distancia desde la cámara 518 hasta el plano de las pupilas.
En algunas realizaciones demostrativas, la distancia desde la cámara 518 hasta el plano de las pupilas puede basarse en una suma de la distancia desde el objeto hasta la cámara 118 y el desplazamiento axial, p. ej., como puede determinarse según la ecuación 13.
En algunas realizaciones demostrativas, una distancia, denotado u, entre la cámara y el plano de las pupilas se puede definir en función de una suma de la distancia desde el objeto a la cámara 118 y el desplazamiento axial, p. ej., de la siguiente manera:
u = distancia_desde_el_objeto_a_la_cámara desplazamiento_axial
(14)
En algunas realizaciones demostrativas, una ampliación, denotadoMojos(u),en la distancia u se puede determinar, por ejemplo, de la siguiente manera:
____________________________e fl____________________________
Mojos fa) desplazamiento_entre_objeto_y_la_cámara desplazamiento_axial
(15)
Volviendo a la Fig. 1, en algunas realizaciones demostrativas, la aplicación 160 puede configurarse para identificar una ubicación en la pupila, a través de la cual el usuario mira a la cámara 118, p. ej., al captar la imagen.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para identificar la ubicación en la pupila, a través de la cual el usuario mira a la cámara 118, por ejemplo, en función del reflejo de la luz del ojo en la imagen captada, p. ej., como se describe a continuación.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para identificar la ubicación en la pupila, a través de la cual el usuario mira a la cámara 118, p. ej., en función de una primera imagen de Purkinje.
Se hace referencia a la Fig. 6, que ilustra esquemáticamente una sección horizontal del ojo derecho 600 de un usuario, de acuerdo con algunas realizaciones demostrativas.
En algunas realizaciones demostrativas, como se muestra en la Fig. 6, la sección horizontal del ojo derecho 600, puede representar una diferencia entre un eje visual 602 y un eje óptico 604 del ojo derecho 600.
En algunas realizaciones demostrativas, una ubicación 606 en la que el eje visual 602 cruza la pupila se puede usar para medir la PD, por ejemplo, ya que el ojo 600 rotaría para ver la imagen más nítida, p. ej., de la cámara 118, que se visualiza en la fóvea 610.
En algunas realizaciones demostrativas, la fóvea 610, puede estar ubicada a aproximadamente 5 grados temporalmente, p. ej., hacia la oreja, por ejemplo, al mirar desde arriba, al eje óptico 604. Por lo tanto, la línea de visión, en la que se gira el ojo para mirar al objeto, puede no coincidir con el eje óptico 604, que conecta la línea entre el vértice de la córnea y el centro de la pupila. En consecuencia, la ubicación 606 puede no ser el centro de la pupila.
En algunas realizaciones demostrativas, la aplicación 160 (Fig. 1) puede configurarse para identificar la ubicación 606, por ejemplo, en función de un reflejo de la fuente luminosa 122 en el ojo 600 en la imagen captada.
Se identifica la ubicación 606, buscando el primer reflejo, la primera imagen de Purkinje, que es el reflejo de la fuente luminosa 122, que se representa por imágenes por la superficie reflectante más externa de la córnea. El ojo puede rotar para ver la fuente luminosa 122, y la superficie corneal reflectante puede ser perpendicular a la fuente luminosa 122. Por lo tanto, el primer reflejo puede ser a lo largo del eje visual 602. En consecuencia, la ubicación 606 se determina en función del primer reflejo de la imagen captada.
En algunas realizaciones demostrativas, la aplicación 160 (Fig. 1) puede determinar la PD, por ejemplo, en función de la ubicación 606 del ojo derecho 600 y de una ubicación del segundo reflejo en el ojo izquierdo, p. ej., en lugar de usar el centro de la pupila o una ubicación arbitraria en la pupila.
Volviendo a la Fig. 1, en algunas realizaciones demostrativas, la aplicación 160 puede configurarse para determinar un número de píxeles, denotadohojos'_píxeles_estimados,entre los reflejos primero y segundo de la imagen captada, p. ej., ubicación 606 (Fig. 6) del ojo derecho 600 (Fig. 6), y la ubicación del segundo reflejo del ojo izquierdo.
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para calcular una PD, denotadoPDconvergencia,para ojos convergentes, por ejemplo, cuando los ojos miran hacia la cámara 118.
En algunas realizaciones demostrativas, la aplicación 160 puede calcular la PD para ojos convergentes, por ejemplo, en función del paso de sensor, la ampliación en el plano de las pupilas y el número de píxeles, p. ej., de la siguiente manera:
PD,convergencia ' ] h'0¡os_píxeles_estimados*paso/l\/l0jOS(u)=
_h '0]OS_píxeles_estimados *paso *(distancia_entre_objeto_y_la_cámara+desplazam¡ento_axial)
efl
( 16)
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para calcular la PD, por ejemplo, cuando los ojos miran hacia el infinito ("ojos infinitos").
En algunas realizaciones demostrativas, la aplicación 160 puede configurarse para calcular una corrección entre la distancia pupilar para ojos convergentes y la distancia pupilar para ojos infinitos, p. ej., como se describe a continuación.
Se hace referencia a la Fig. 7, que ilustra esquemáticamente una PD entre dos ojos 720 de un usuario que mira hacia una cámara 718, de acuerdo con algunas realizaciones demostrativas.
En algunas realizaciones demostrativas, como se muestra en la Fig. 7, la cámara 718 puede estar ubicada a distancia, denotadodistancia_deJos_ojos_aJa_cámara,de los ojos 720.
En algunas realizaciones demostrativas, como se muestra en la Fig. 7, cada ojo 720 gira en un ángulo0,p. ej., hacia la nariz, para mirar a la cámara 718.
En algunas realizaciones demostrativas, como se muestra en la Fig. 7, una ubicación 706 de un eje visual 708 que cruza la pupila puede desplazarse transversalmente a una distancia de acomodación, denotado t, hacia una ubicación 709, p. ej., hacia las orejas, por ejemplo, cuando los ojos 720 miran hacia el infinito.
En algunas realizaciones demostrativas, la distancia de acomodación<t>puede ser, por ejemplo, el resultado de los ojos 730 girando en un radio, denotado R, en el ángulo 0, a la ubicación 709, p. ej., para mirar hacia el infinito. En algunas realizaciones demostrativas, suponiendo que los centros de rotación de los ojos 720 son iguales, los radios R de los ojos pueden ser iguales a un valor predefinido, p. ej., de aproximadamente 13,5 mm.
En algunas realizaciones demostrativas, se pueden considerar las ubicaciones 709, por ejemplo, al determinar la distancia pupilar, p. ej., para anteojos de distancia.
En algunas realizaciones demostrativas, como se muestra en la Fig. 7, la distancia pupilar para ojos convergentes, denotadoPD(0),puede definirse, por ejemplo, cuando los ojos 720 convergen para mirar hacia un flash de la cámara 718, por ejemplo, si la cámara 718 está ubicada en a e, que no es una distancia infinita, p. ej., la distanciadistancia_del_ojo_a_la_cámara.
En algunas realizaciones demostrativas, el ángulo0puede expresarse de la siguiente manera:
En algunas realizaciones demostrativas, la distancia pupilar para ojos infinitos, denotadoPDparainfinito,p. ej., cuando los ojos 720 miran al infinito, se puede determinar, por ejemplo, en función de la suma de la distancia pupilarPDconvergenciapara ojos convergentes y la distancia de acomodación t para los dos ojos 720, p. ej., de la siguiente manera:
PD = PD,convergencia 2t = PD,convergencia 2Rsen(p)
(18)
En algunas realizaciones demostrativas, , se puede determinar la distancia pupilar PDparainfinito, por ejemplo, combinando la Ecuación 17 y la Ecuación 18, p. ej., de la siguiente manera:
^A nfinitoPDconvergencia( ldistancia_0j 0_a_cámara
(19)
En algunas realizaciones demostrativas, una retroalimentación negativa puede reducir un error acumulado. Por ejemplo, en un caso en el que un desplazamiento horizontal calculadodesplazamiento_horizontal esmás largo que un desplazamiento horizontal real, p. ej., entre el ojo y el objeto, la distanciadistancia_del_ojo_a_la_cámarapuede ser más larga, p. ej., dando lugar a una PD más alta en el plano de los ojos. Sin embargo, la acomodación para la conversión, p. ej., la distancia<t>, desde mayor distancia, p. ej., puede reducir el ángulo 0, lo que puede resultar en una menor adición a la distancia pupilar, lo que puede reducir el error acumulado.
Se hace referencia a las Fig. 8A-8F, que ilustran esquemáticamente histogramas de simulaciones de Monte Carlo, de acuerdo con algunas realizaciones demostrativas.
En algunas realizaciones demostrativas, las simulaciones consideraron variaciones en la distancia entre la cámara y el objeto, p. ej., entre 300 mm y 900 mm, un error en la estimación de la distancia entre la cámara y el objeto, p. ej., entre -5 mm y 15 mm, y un error de desplazamiento horizontal entre las pupilas y el objeto, p. ej., entre -15 mm y 5 mm.
En algunas realizaciones demostrativas, la Fig. 8A muestra un histograma de simulaciones de Monte Carlo para evaluar los errores acumulados generados a partir de un error de cámara respecto a la estimación de un objeto de tamaño conocido, por ejemplo, cuando la cámara se coloca a múltiples distancias.
En algunas realizaciones demostrativas, la Fig. 8B muestra un histograma de simulaciones de Monte Carlo para evaluar los errores acumulados generados a partir de un error en la cámara respecto a una estimación de un objeto de tamaño conocido.
En algunas realizaciones demostrativas, la Fig. 8C muestra un histograma de simulaciones de Monte Carlo para evaluar el error de un desplazamiento horizontal entre las pupilas y el objeto.
En algunas realizaciones demostrativas, la Fig. 8D muestra un histograma de simulaciones de Monte Carlo para representar una variación de la PD nominal.
En algunas realizaciones demostrativas, la Fig. 8E muestra el resultado de un error acumulado del eje horizontal presentado como un histograma.
En algunas realizaciones demostrativas, , el eje horizontal de la Fig. 8E define el error acumulado, y el eje vertical define la cantidad de ensayos que se produjeron con esa cantidad de errores, p. ej., cuando el número de simulaciones esN=1000.
En algunas realizaciones demostrativas, la Fig. 8F muestra un histograma que muestra que el error total en la PD medida está dentro del intervalo [-1, 1] mm para al menos el 95 % de los casos.
Se hace referencia a la Fig. 9, que ilustra esquemáticamente un método para determinar una PD de un usuario, de acuerdo con algunas realizaciones demostrativas. Por ejemplo, una o más operaciones del método de la Fig. 9 pueden ser realizadas por un dispositivo móvil, dispositivo 102 (Fig. 1), un servidor, p. ej., servidor 170 (Fig. 1), y/o una aplicación, p. ej., aplicación 160 (Fig. 1).
Como se indica en el bloque 902, el método puede incluir capturar una imagen de los ojos de un usuario que mira el flash de una cámara y recibir información relacionada con una orientación de la cámara, el paso de sensor de la cámara y la EFL de la lente de la cámara. Por ejemplo, la aplicación 160 (Fig. 1) puede recibir la imagen captada que incluye los reflejos primero y segundo de la cámara 118 (Fig. 1), y puede recibir la información de orientación, el paso de sensor y la EFL de la cámara 118 (Fig. 1), por ejemplo, como se ha descrito anteriormente.
Como se indica en el bloque 904, el método puede incluir la estimación de una distancia desde la cámara hasta un objeto en el rostro del usuario. Por ejemplo, la aplicación 160 (Fig. 1) puede estimar la distancia entre la cámara 118 y el objeto de referencia, por ejemplo, usando información del sensor 3D 124 (Fig. 1), la información de aceleración del acelerómetro 128 (Fig. 1), y/o en función de las dimensiones del objeto, p. ej., como se ha descrito anteriormente.
Como se indica en el bloque 906, el método puede incluir el cálculo de un desplazamiento axial entre un plano de objeto que incluye el objeto y un plano de pupilas que incluye las pupilas del usuario, por ejemplo, en función de la orientación de la cámara. Por ejemplo, la aplicación 160 (Fig. 1) puede determinar el desplazamiento axial entre el plano del objeto y el plano de las pupilas, por ejemplo, en función de la información de orientación del estimador de orientación 128 (fig. 1), por ejemplo, como se ha descrito anteriormente.
Como se indica en el bloque 908, el método puede incluir la determinación de un aumento en el plano de las pupilas, en función de la distancia axial y la distancia medida desde la cámara hasta el objeto, por ejemplo, usando la EFL y el paso de sensor. Por ejemplo, la aplicación 160 (Fig. 1) puede determinar el aumento en el plano de las pupilas, por ejemplo, en función del desplazamiento axial y la distancia desde la cámara 118 (Fig. 1) hasta el objeto, p. ej., como se ha descrito anteriormente.
Como se indica en el bloque 910, el método puede incluir la identificación de los reflejos primero y segundo del flash en los ojos del usuario y la medición de la distancia, p. ej., en píxeles, entre el primer reflejo y el segundo reflejo. Por ejemplo, la aplicación 160 (Fig. 1) puede estimar la distancia, p. ej., en píxeles, entre el primer reflejo y el segundo reflejo, p. ej., como se ha descrito anteriormente.
Como se indica en el bloque 912, el método puede incluir la conversión de la distancia en píxeles en unidades de distancia, por ejemplo, según el aumento en el plano de las pupilas. Por ejemplo, la aplicación 160 (Fig. 1) puede estimar la distancia entre el primer reflejo y el segundo reflejo, p. ej., como se ha descrito anteriormente.
Como se indica en el bloque 914, el método puede incluir la adaptación de la distancia medida a la convergencia del ojo, por ejemplo, calculando dónde se habrían generado los reflejos primero y segundo para ojos que miran al infinito y estableciendo la distancia interpupilar para anteojos de larga distancia en función de la acomodación. Por ejemplo, la aplicación 160 (Fig. 1) puede determinar la distancia pupilarPDinfinito,por ejemplo, en función de la distancia t, p. ej., como se ha descrito anteriormente.
En algunas realizaciones demostrativas, el método puede incluir opcionalmente calcular dónde se habrían generado las imágenes de los reflejos primero y segundo para una rotación del ojo a una distancia cercana, por ejemplo, una distancia predefinida de 45 centímetros y establecer la distancia pupilar cercana para una visión de cerca.
En algunas realizaciones demostrativas, un método para determinar una PD de un usuario puede incluir, por ejemplo, sólo algunas de las operaciones de la Fig. 9, por ejemplo, sin incluir una o más operaciones adicionales del método de la Fig. 9.
En algunas realizaciones demostrativas, se puede realizar un método para determinar una PD, por ejemplo, incluso sin realizar una o más, p. ej., todas, de las operaciones descritas anteriormente con respecto a los bloques 906 y/o 908, por ejemplo, si se conoce o determina la distancia entre la cámara y las pupilas.
En algunas realizaciones demostrativas, se puede determinar la distancia entre la cámara y las pupilas, por ejemplo, en función del tamaño de un futuro facial del rostro del usuario.
En un ejemplo, el método para determinar una PD puede incluir calibrar y/o medir el tamaño del rasgo facial, p. ej., un diámetro del iris; captar una imagen del rostro usando el flash de la cámara; y determinar la distancia de la cámara a las pupilas, por ejemplo, en función del rasgo facial.
En algunas realizaciones demostrativas, la calibración y/o medición del rasgo facial puede ser, por ejemplo, mediante la captura en una imagen que incluya el objeto facial y un objeto de referencia, p. ej., una tarjeta de crédito, que puede colocarse en el rostro del usuario.
Por ejemplo, un usuario puede cubrir un ojo del usuario con el objeto de referencia, p. ej., la tarjeta de crédito, por ejemplo, para permitir la calibración del diámetro del iris del otro ojo.
Se hace referencia a la Fig. 10, que ilustra esquemáticamente un método para determinar una PD de un usuario, de acuerdo con algunas realizaciones demostrativas. Por ejemplo, una o más operaciones del método de la Fig. 10 pueden ser realizadas por un dispositivo móvil, dispositivo 102 (Fig. 1), un servidor, p. ej., servidor 170 (Fig. 1), y/o una aplicación, aplicación 160 (Fig. 1)
Como se indica en el bloque 1002, el método puede incluir recibir una imagen captada que incluye reflejos primero y segundo de luz de una fuente luminosa, incluyendo el primer reflejo un reflejo de la luz de una primera pupila del usuario. Por ejemplo, la aplicación 160 (Fig. 1) puede recibir la imagen captada que incluye los reflejos primero y segundo, p. ej., como se ha descrito anteriormente.
Como se indica en el bloque 1004, el método incluye determinar la distancia pupilar en función de las ubicaciones de los reflejos primero y segundo en la imagen captada y una distancia estimada entre una cámara usada para capturar la imagen y las pupilas del usuario, cuando se capta la imagen. La aplicación 160 (Fig. 1) determina la distancia pupilar del usuario, en función de las ubicaciones de los reflejos primero y segundo en la imagen captada y una distancia estimada entre el dispositivo 102 (Fig. 1) y las pupilas del usuario, cuando se capta la imagen, p. ej., como se ha descrito anteriormente.
Se hace referencia a la Fig. 11, que ilustra esquemáticamente un producto de fabricación 1000, de acuerdo con algunas realizaciones demostrativas. El producto 1100 puede incluir uno o más medios de almacenamiento tangibles no transitorios legibles por ordenador 1102, que pueden incluir instrucciones ejecutables por ordenador, p. ej., implementadas por la lógica 1104, operables para, cuando son ejecutadas por al menos un procesador de ordenador, permitir que el al menos un procesador de ordenador implemente una o más operaciones en el dispositivo 102 (Fig. 1), el servidor 170 (Fig. 1) y/o la aplicación 160 (Fig. 1), y/o realice, active y/o implemente una o más operaciones, comunicaciones y/o funcionalidades según las Fig. 1-10, y/o una o más operaciones descritas en el presente documento. La expresión "medio legible por máquina no transitorio" está destinada a incluir todos los medios legibles por ordenador, con la única excepción de una señal de propagación transitoria.
En algunas realizaciones demostrativas, el producto 1100 y/o el medio de almacenamiento legible por máquina 1102 pueden incluir uno o más tipos de medios de almacenamiento legibles por ordenador capaces de almacenar datos, incluyendo memoria volátil, memoria no volátil, memoria extraíble o no extraíble, memoria borrable o no borrable, memoria escribible o reescribible, y similares. Por ejemplo, el medio de almacenamiento legible por máquina 1102 puede incluir, RAM, DRACMA, DRAM de doble velocidad de datos (DDR-DRAM), SDRAM, RAM estática (SRAM), ROM, ROM programable (PROM), ROM programable borrable (EPr Om ), ROM programable borrable eléctricamente (EEPROM), disco compacto ROM (CD-<r>O<m>), disco compacto grabable (CD-R), disco compacto regrabable (CD-RW), memoria flash (por ejemplo, memoria flash NOR o NAND), memoria direccionable por contenido (CAM), memoria de polímero, memoria de cambio de fase, memoria ferroeléctrica, memoria de silicio-óxido-nitruro-óxido-silicio (SONOS), un disco, un disquete, un disco duro, un disco óptico, un disco magnético, una tarjeta, una tarjeta magnética, una tarjeta óptica, una cinta, un casete y similares. Los medios de almacenamiento legibles por ordenador pueden incluir cualquier medio adecuado utilizado para descargar o transferir un programa de ordenador desde un ordenador remoto a un ordenador solicitante transportado por señales de datos incorporadas en una onda portadora u otro medio de propagación a través de un enlace de comunicación, p. ej., un módem, conexión por radio o red.
En algunas realizaciones demostrativas, la lógica 1104 puede incluir instrucciones, datos y/o código, que, si son ejecutadas por una máquina, puede hacer que la máquina realice un método, proceso y/u operaciones como se describe en el presente documento. La máquina puede incluir, por ejemplo, cualquier plataforma de procesamiento, plataforma informática, dispositivo informático, dispositivo de procesamiento, sistema informático, sistema de procesamiento, ordenador, procesador adecuado o similares, y puede implementarse usando cualquier combinación adecuada de hardware, software, firmware y similares.
En algunas realizaciones demostrativas, la lógica 1104 puede incluir, o puede implementarse como, software, un módulo de software, una aplicación, un programa, una subrutina, instrucciones, un conjunto de instrucciones, código informático, palabras, valores, símbolos y similares. Las instrucciones pueden incluir cualquier tipo adecuado de código, tal como el código fuente, código compilado, código interpretado, código ejecutable, código estático, código dinámico y similares. Las instrucciones pueden implementarse según un lenguaje informático, manera o sintaxis predefinido, para instruir a un procesador a realizar una determinada función. Las instrucciones pueden implementarse usando cualquier lenguaje de programación adecuado de alto nivel, de bajo nivel, orientado a objetos, visual, compilado y/o interpretado, tal como C, C++, Java, BASIC, Matlab, Pascal, Visual BASIC, lenguaje ensamblador, código de máquina y similares.
Ejemplos
Los siguientes ejemplos hacen referencia a otras realizaciones.
El ejemplo 1 incluye un producto que comprende uno o más medios de almacenamiento legibles por ordenador no transitorios tangibles que comprenden instrucciones ejecutables por ordenador operables para, cuando son ejecutadas por al menos un procesador de ordenador, permitir que el al menos un procesador de ordenador implemente operaciones de medición de una distancia pupilar entre las pupilas de un usuario, comprendiendo las operaciones recibir una imagen captada que comprende reflejos primero y segundo de una luz de una fuente luminosa, comprendiendo el primer reflejo un reflejo de la luz de una primera pupila del usuario, y comprendiendo el segundo reflejo un reflejo de la luz de una segunda pupila del usuario; y determinar la distancia pupilar en función de las ubicaciones de los reflejos primero y segundo en la imagen captada y una distancia estimada entre un dispositivo de captura de imágenes y las pupilas del usuario, cuando se capta la imagen.
El Ejemplo 2 incluye la materia objeto del Ejemplo 1 y, opcionalmente, en donde la imagen captada comprende un objeto en el rostro del usuario, la distancia estimada se basa en una o más dimensiones del objeto.
El Ejemplo 3 incluye la materia objeto del Ejemplo 2 y, opcionalmente, en donde las operaciones comprenden determinar un desplazamiento axial entre el objeto y las pupilas a lo largo de un eje perpendicular a un plano que incluye el objeto, y determinar la distancia pupilar en función del desplazamiento axial.
El Ejemplo 4 incluye la materia objeto del Ejemplo 2 o 3 y, opcionalmente, en donde la distancia estimada se basa en una coordenada cartesiana tridimensional (3D) de una característica del rostro.
El Ejemplo 5 incluye la materia objeto de uno cualquiera de los Ejemplos 1-4 y, opcionalmente, en donde la distancia estimada se basa en la información de aceleración que indica una aceleración del dispositivo de captura de imágenes.
El Ejemplo 6 incluye la materia objeto de uno cualquiera de los Ejemplos 1-5 y, opcionalmente, en donde las operaciones comprenden determinar la distancia pupilar en función de un número de píxeles entre los reflejos primero y segundo, y una relación de píxel a milímetro (mm) de los píxeles.
El Ejemplo 7 incluye la materia objeto de uno cualquiera de los Ejemplos 1-6 y, opcionalmente, en donde las operaciones comprenden recibir información de orientación que indica una orientación del dispositivo de captura de imágenes cuando se capta la imagen, y determinar la distancia pupilar en función de la información de orientación. El Ejemplo 8 incluye la materia objeto del Ejemplo 7 y, opcionalmente, en donde la información de orientación indica un ángulo de inclinación del dispositivo de captura de imágenes.
El Ejemplo 9 incluye la materia objeto de uno cualquiera de los Ejemplos 1-8 y, opcionalmente, en donde las operaciones comprenden determinar la distancia pupilar en función de uno o más atributos del dispositivo de captura de imágenes.
El Ejemplo 10 incluye la materia objeto del Ejemplo 9 y, opcionalmente, en donde uno o más atributos comprenden al menos un atributo seleccionado del grupo que consiste en una longitud focal efectiva (EFL) de una lente del dispositivo de captura de imágenes, un campo de visión horizontal de un sensor del dispositivo de captura de imágenes, un campo de visión vertical del sensor, una resolución del sensor y una distancia entre dos píxeles adyacentes del sensor. El Ejemplo 11 incluye la materia objeto de uno cualquiera de los Ejemplos 1-10 y, opcionalmente, en donde las operaciones comprenden determinar la distancia pupilar en función de un parámetro de radio del ojo y una distancia entre el dispositivo de captura de imágenes y un plano que comprende las pupilas.
El Ejemplo 12 incluye la materia objeto de uno cualquiera de los Ejemplos 1-11 y, opcionalmente, en donde la distancia pupilar comprende una distancia pupilar cercana o una distancia pupilar lejana.
El Ejemplo 13 incluye un dispositivo móvil configurado para medir una distancia pupilar entre las pupilas de un usuario, comprendiendo el dispositivo móvil una cámara para capturar una imagen que comprende reflejos primero y segundo de una luz de una fuente luminosa, comprendiendo el primer reflejo un reflejo de la luz de una primera pupila del usuario, y comprendiendo el segundo reflejo un reflejo de la luz de una segunda pupila del usuario; y una calculadora de distancia pupilar para recibir la imagen captada y determinar la distancia pupilar en función de las ubicaciones de los reflejos primero y segundo en la imagen captada y una distancia estimada entre el dispositivo móvil y las pupilas, cuando se capta la imagen.
El Ejemplo 14 incluye la materia objeto del Ejemplo 13 y, opcionalmente, en donde la imagen captada comprende un objeto en el rostro del usuario, la distancia estimada se basa en una o más dimensiones del objeto.
El Ejemplo 15 incluye la materia objeto del Ejemplo 14 y, opcionalmente, en donde el dispositivo móvil está configurado para determinar un desplazamiento axial entre el objeto y las pupilas a lo largo de un eje perpendicular a un plano que incluye el objeto, y para determinar la distancia pupilar en función del desplazamiento axial.
El Ejemplo 16 incluye la materia objeto del Ejemplo 14 o 15 y, opcionalmente, en donde la distancia estimada se basa en una coordenada cartesiana tridimensional (3D) de una característica del rostro.
El Ejemplo 17 incluye la materia objeto de uno cualquiera de los Ejemplos 13-16 y, opcionalmente, en donde la distancia estimada se basa en la información de aceleración que indica una aceleración del dispositivo de captura de imágenes.
El Ejemplo 18 incluye la materia objeto de uno cualquiera de los Ejemplos 13-17 y, opcionalmente, en donde el dispositivo móvil está configurado para determinar la distancia pupilar en función de un número de píxeles entre los reflejos primero y segundo, y una relación de píxel a milímetro (mm) de los píxeles.
El Ejemplo 19 incluye la materia objeto de uno cualquiera de los Ejemplos 13-18 y, opcionalmente, en donde el dispositivo móvil está configurado para recibir información de orientación que indica una orientación del dispositivo de captura de imágenes cuando se captura la imagen, y para determinar la distancia pupilar en función de la información de orientación.
El Ejemplo 20 incluye la materia objeto del Ejemplo 19 y, opcionalmente, en donde la información de orientación indica un ángulo de inclinación del dispositivo de captura de imágenes.
El Ejemplo 21 incluye la materia objeto de uno cualquiera de los Ejemplos 13-20 y, opcionalmente, en donde el dispositivo móvil está configurado para determinar la distancia pupilar en función de uno o más atributos del dispositivo de captura de imágenes.
El Ejemplo 22 incluye la materia objeto del Ejemplo 21 y, opcionalmente, en donde uno o más atributos comprenden al menos un atributo seleccionado del grupo que consiste en una longitud focal efectiva (EFL) de una lente del dispositivo de captura de imágenes, un campo de visión horizontal de un sensor del dispositivo de captura de imágenes, un campo de visión vertical del sensor, una resolución del sensor y una distancia entre dos píxeles adyacentes del sensor.
El Ejemplo 23 incluye la materia objeto de uno cualquiera de los Ejemplos 13-22 y, opcionalmente, en donde las operaciones comprenden determinar la distancia pupilar en función de un parámetro de radio del ojo y una distancia entre el dispositivo de captura de imágenes y un plano que comprende las pupilas.
El Ejemplo 24 incluye la materia objeto de uno cualquiera de los Ejemplos 13-23 y, opcionalmente, en donde la distancia pupilar comprende una distancia pupilar cercana o una distancia pupilar lejana.
El Ejemplo 25 incluye un método para medir la distancia pupilar entre las pupilas de un usuario, comprendiendo el método recibir una imagen captada que comprende reflejos primero y segundo de una luz de una fuente luminosa, comprendiendo el primer reflejo un reflejo de la luz de una primera pupila del usuario, y comprendiendo el segundo reflejo un reflejo de la luz de una segunda pupila del usuario; y determinar la distancia pupilar en función de las ubicaciones de los reflejos primero y segundo en la imagen captada y una distancia estimada entre un dispositivo de captura de imágenes y las pupilas del usuario, cuando se capta la imagen.
El Ejemplo 26 incluye la materia objeto del Ejemplo 25 y, opcionalmente, en donde la imagen captada comprende un objeto en el rostro del usuario, la distancia estimada se basa en una o más dimensiones del objeto.
El Ejemplo 27 incluye la materia objeto del Ejemplo 26 y, opcionalmente, que comprende determinar un desplazamiento axial entre el objeto y las pupilas a lo largo de un eje perpendicular a un plano que incluye el objeto, y determinar la distancia pupilar en función del desplazamiento axial.
El Ejemplo 28 incluye la materia objeto del Ejemplo 26 o 27 y, opcionalmente, en donde la distancia estimada se basa en una coordenada cartesiana tridimensional (3D) de una característica del rostro.
El Ejemplo 29 incluye la materia objeto de uno cualquiera de los Ejemplos 25-28 y, opcionalmente, en donde la distancia estimada se basa en la información de aceleración que indica una aceleración del dispositivo de captura de imágenes.
El Ejemplo 30 incluye la materia objeto de uno cualquiera de los Ejemplos 25-29 y, opcionalmente, que comprende determinar la distancia pupilar en función de un número de píxeles entre los reflejos primero y segundo, y una relación de píxel a milímetro (mm) de los píxeles.
El Ejemplo 31 incluye la materia objeto de uno cualquiera de los Ejemplos 25-30 y, opcionalmente, que comprende recibir información de orientación que indica una orientación del dispositivo de captura de imágenes cuando se captura la imagen, y determinar la distancia pupilar en función de la información de orientación.
El Ejemplo 32 incluye la materia objeto del Ejemplo 31 y, opcionalmente, en donde la información de orientación indica un ángulo de inclinación del dispositivo de captura de imágenes.
El Ejemplo 33 incluye la materia objeto de uno cualquiera de los Ejemplos 25-32 y, opcionalmente, que comprende determinar la distancia pupilar en función de uno o más atributos del dispositivo de captura de imágenes.
El Ejemplo 34 incluye la materia objeto del Ejemplo 33 y, opcionalmente, en donde uno o más atributos comprenden al menos un atributo seleccionado del grupo que consiste en una longitud focal efectiva (EFL) de una lente del dispositivo de captura de imágenes, un campo de visión horizontal de un sensor del dispositivo de captura de imágenes, un campo de visión vertical del sensor, una resolución del sensor y una distancia entre dos píxeles adyacentes del sensor.
El Ejemplo 35 incluye la materia objeto de uno cualquiera de los Ejemplos 25-34 y, opcionalmente, que comprende determinar la distancia pupilar en función de un parámetro del radio del ojo y de una distancia entre el dispositivo de captura de imágenes y un plano que comprende las pupilas.
El Ejemplo 36 incluye la materia objeto de uno cualquiera de los Ejemplos 25-35 y, opcionalmente, en donde la distancia pupilar comprende una distancia pupilar cercana o una distancia pupilar lejana.
El Ejemplo 37 incluye un aparato para medir la distancia pupilar entre las pupilas de un usuario, comprendiendo el aparato medios para recibir una imagen captada que comprende reflejos primero y segundo de una luz de una fuente luminosa, comprendiendo el primer reflejo un reflejo de la luz de una primera pupila del usuario, y comprendiendo el segundo reflejo un reflejo de la luz de una segunda pupila del usuario; y medios para determinar la distancia pupilar en función de las ubicaciones de los reflejos primero y segundo en la imagen captada y una distancia estimada entre un dispositivo de captura de imágenes y las pupilas del usuario, cuando se capta la imagen.
El Ejemplo 38 incluye la materia objeto del Ejemplo 37 y, opcionalmente, en donde la imagen captada comprende un objeto en el rostro del usuario, la distancia estimada se basa en una o más dimensiones del objeto.
El Ejemplo 39 incluye la materia objeto del Ejemplo 38 y, opcionalmente, que comprende medios para determinar un desplazamiento axial entre el objeto y las pupilas a lo largo de un eje perpendicular a un plano que incluye el objeto, y determinar la distancia pupilar en función del desplazamiento axial.
El Ejemplo 40 incluye la materia objeto del Ejemplo 38 o 39 y, opcionalmente, en donde la distancia estimada se basa en una coordenada cartesiana tridimensional (3D) de una característica del rostro.
El Ejemplo 41 incluye la materia objeto de uno cualquiera de los Ejemplos 37-40 y, opcionalmente, en donde la distancia estimada se basa en la información de aceleración que indica una aceleración del dispositivo de captura de imágenes.
El Ejemplo 42 incluye la materia objeto de uno cualquiera de los Ejemplos 37-41 y, opcionalmente, que comprende medios para determinar la distancia pupilar en función de un número de píxeles entre los reflejos primero y segundo, y una relación de píxel a milímetro (mm) de los píxeles.
El Ejemplo 43 incluye la materia objeto de uno cualquiera de los Ejemplos 37-42 y, opcionalmente, que comprende medios para recibir información de orientación que indica una orientación del dispositivo de captura de imágenes cuando se capta la imagen, y determinar la distancia pupilar en función de la información de orientación.
El Ejemplo 44 incluye la materia objeto del Ejemplo 43 y, opcionalmente, en donde la información de orientación indica un ángulo de inclinación del dispositivo de captura de imágenes.
El Ejemplo 45 incluye la materia objeto de uno cualquiera de los Ejemplos 37-44 y, opcionalmente, que comprende medios para determinar la distancia pupilar en función de uno o más atributos del dispositivo de captura de imágenes.
El Ejemplo 46 incluye la materia objeto del Ejemplo 45 y, opcionalmente, en donde uno o más atributos comprenden al menos un atributo seleccionado del grupo que consiste en una longitud focal efectiva (EFL) de una lente del dispositivo de captura de imágenes, un campo de visión horizontal de un sensor del dispositivo de captura de imágenes, un campo de visión vertical del sensor, una resolución del sensor y una distancia entre dos píxeles adyacentes del sensor.
El Ejemplo 47 incluye la materia objeto de uno cualquiera de los Ejemplos 37-46 y, opcionalmente, que comprende medios para determinar la distancia pupilar en función de un parámetro del radio del ojo y una distancia entre el dispositivo de captura de imágenes y un plano que comprende las pupilas.
El Ejemplo 48 incluye la materia objeto de uno cualquiera de los Ejemplos 37-47 y, opcionalmente, en donde la distancia pupilar comprende una distancia pupilar cercana o una distancia pupilar lejana.
Las funciones, operaciones, componentes y/o características descritos en el presente documento con referencia a una o más realizaciones, pueden combinarse con, o pueden utilizarse en combinación con, una o más funciones, operaciones, componentes y/o características adicionales descritos en el presente documento con referencia a una o más realizaciones, o viceversa.
Si bien se han ilustrado y descrito ciertas características en el presente documento, los expertos en la materia pueden realizar muchas modificaciones, sustituciones, cambios y equivalentes.
Claims (14)
1. Un método implementado por ordenador para medir una distancia pupilar entre las pupilas de un usuario, comprendiendo el método:
recibir una imagen captada por una única cámara (118, 220) que comprende reflejos primero y segundo de una luz de una fuente luminosa única (122), comprendiendo el primer reflejo un reflejo de dicha luz procedente de una primera pupila de dicho usuario, y comprendiendo el segundo reflejo un reflejo de dicha luz procedente de una segunda pupila de dicho usuario; y
procesar (1002) a través de un procesador la imagen para determinar las ubicaciones de los reflejos primero y segundo;
en donde la identificación de la ubicación del primer reflejo se realiza identificando una primera imagen de Purkinje de un reflejo de la luz de la fuente luminosa por la superficie corneal reflectante externa del primer ojo, y la identificación de la ubicación del segundo reflejo identificando una primera imagen de Purkinje de un reflejo de la luz de la fuente luminosa por una superficie corneal reflectante externa del segundo ojo;
para determinar una primera distancia estimada entre la cámara y las pupilas del usuario cuando la imagen es captada por el sensor;
para determinar una segunda distancia estimada entre las ubicaciones de los reflejos primero y segundo en función de una distancia entre la primera imagen de Purkinje del reflejo de la luz de la fuente luminosa por la superficie corneal reflectante externa del primer ojo, y la primera imagen de Purkinje del reflejo de la luz de la fuente luminosa por la superficie corneal reflectante externa del segundo ojo; y
para determinar (1004) la distancia pupilar en función de la primera distancia estimada y de la segunda distancia estimada y de las ubicaciones identificadas de dichos reflejos primero y segundo.
2. El método de la reivindicación 1, en donde dicha imagen comprende información de un objeto en un rostro de dicho usuario, determinar dicha distancia estimada comprende determinar dicha distancia estimada en función de una o más dimensiones de dicho objeto.
3. El método de la reivindicación 2 que comprende determinar un desplazamiento axial entre dicho objeto y dichas pupilas a lo largo de un eje perpendicular a un plano que incluye dicho objeto, y determinar la distancia pupilar en función de dicho desplazamiento axial.
4. El método de la reivindicación 2 o 3, en donde determinar dicha distancia estimada comprende determinar dicha distancia estimada en función de una coordenada cartesiana tridimensional (3D) de una característica de dicho rostro.
5. El método de una cualquiera de las reivindicaciones 1-4, en donde determinar dicha distancia estimada comprende determinar dicha distancia estimada en función de la información de aceleración que indica una aceleración de dicha cámara.
6. El método de una cualquiera de las reivindicaciones 1-5 que comprende determinar la distancia pupilar en función de un número de píxeles entre las ubicaciones identificadas de dichos reflejos primero y segundo, y de una relación de píxel a milímetro (mm) de dichos píxeles.
7. El método de una cualquiera de las reivindicaciones 1-6 que comprende recibir información de orientación que indica una orientación de dicho dispositivo cuando se capta dicha información de imagen, y determinar la distancia pupilar en función de dicha información de orientación.
8. El método de la reivindicación 7, en donde dicha información de orientación indica un ángulo de inclinación de dicho dispositivo.
9. El método de una cualquiera de las reivindicaciones 1-8 que comprende determinar la distancia pupilar en función de uno o más atributos del sensor.
10. El método de la reivindicación 9, en donde dichos uno o más atributos comprenden al menos un atributo de una longitud focal efectiva (EFL) de una lente de dicho sensor, un campo de visión horizontal del sensor, un campo de visión vertical de dicho sensor, una resolución de dicho sensor, y/o una distancia entre dos píxeles adyacentes de dicho sensor.
11. El método de una cualquiera de las reivindicaciones 1-10 que comprende determinar la distancia pupilar en función de un parámetro de radio del ojo y una distancia entre el sensor y un plano que comprende dichas pupilas.
12. El método de una cualquiera de las reivindicaciones 1-11, en donde la distancia pupilar comprende una distancia pupilar cercana o una distancia pupilar lejana.
13. Un producto que comprende uno o más medios de almacenamiento tangibles legibles por ordenador que comprenden instrucciones ejecutables por ordenador operables para, cuando son ejecutadas por al menos un procesador de ordenador, permitir que el al menos un procesador informático realice el método de una cualquiera de las reivindicaciones 1-12.
14. Un dispositivo móvil configurado para determinar una distancia pupilar entre las pupilas de un usuario, comprendiendo el dispositivo una fuente luminosa única (122) para generar la luz para iluminar las pupilas del usuario; una única cámara (118, 220) para captar una imagen que comprende reflejos primero y segundo de una luz de la fuente luminosa única, comprendiendo el primer reflejo un reflejo de dicha luz de una primera pupila de dicho usuario, y comprendiendo el segundo reflejo un reflejo de dicha luz de una segunda pupila de dicho usuario; y una calculadora de distancia pupilar configurada para llevar a cabo el método según las reivindicaciones 1-12.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201562159490P | 2015-05-11 | 2015-05-11 | |
| PCT/IB2016/052671 WO2016181308A1 (en) | 2015-05-11 | 2016-05-10 | Apparatus, system and method of determining a pupillary distance |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2986629T3 true ES2986629T3 (es) | 2024-11-12 |
Family
ID=57249078
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES16792276T Active ES2986629T3 (es) | 2015-05-11 | 2016-05-10 | Aparato, sistema y método de determinación de una distancia pupilar |
Country Status (13)
| Country | Link |
|---|---|
| US (2) | US10702149B2 (es) |
| EP (2) | EP3294112B1 (es) |
| JP (1) | JP6853188B2 (es) |
| KR (1) | KR102591132B1 (es) |
| CN (2) | CN107847128B (es) |
| AU (2) | AU2016261275B2 (es) |
| BR (1) | BR112017024157B1 (es) |
| CA (1) | CA2985315C (es) |
| ES (1) | ES2986629T3 (es) |
| IL (1) | IL255571B (es) |
| RU (1) | RU2722303C2 (es) |
| SG (1) | SG10201913884SA (es) |
| WO (1) | WO2016181308A1 (es) |
Families Citing this family (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10670494B2 (en) * | 2015-05-10 | 2020-06-02 | 6 Over 6 Vision Ltd. | Apparatus, system and method of determining one or more optical parameters of a lens |
| CN107847128B (zh) | 2015-05-11 | 2020-11-10 | 6超越6视觉有限公司 | 确定瞳孔距离的装置、系统和方法 |
| US9532709B2 (en) | 2015-06-05 | 2017-01-03 | Jand, Inc. | System and method for determining distances from an object |
| US9770165B2 (en) | 2015-08-13 | 2017-09-26 | Jand, Inc. | Systems and methods for displaying objects on a screen at a desired visual angle |
| US10799109B2 (en) | 2016-01-15 | 2020-10-13 | Jand, Inc. | Systems and methods for determining distance from an object |
| US10557773B2 (en) | 2016-05-18 | 2020-02-11 | Jand, Inc. | Fixtureless lensmeter system |
| US10036685B2 (en) | 2016-05-18 | 2018-07-31 | Jand, Inc. | Fixtureless lensmeter and methods of operating same |
| US10413172B2 (en) | 2017-12-11 | 2019-09-17 | 1-800 Contacts, Inc. | Digital visual acuity eye examination for remote physician assessment |
| CN109379586B (zh) * | 2019-01-16 | 2019-08-06 | 歌尔股份有限公司 | 摄像头模组的倾斜角度测试方法及装置 |
| KR102184972B1 (ko) | 2019-02-01 | 2020-12-01 | 주식회사 룩시드랩스 | 동공 중심간 거리를 측정하는 장치 및 방법 |
| US11064188B2 (en) * | 2019-07-29 | 2021-07-13 | Htc Corporation | Driving method for calculating interpupillary distance and related head-mounted device |
| US11488239B2 (en) | 2019-08-26 | 2022-11-01 | Warby Parker Inc. | Virtual fitting systems and methods for spectacles |
| EP4106984A4 (en) | 2020-02-21 | 2024-03-20 | Ditto Technologies, Inc. | ASSEMBLING GLASSES FRAME WITH LIVE ADJUSTMENT |
| IL297252B1 (en) | 2020-04-15 | 2026-01-01 | Warby Parker Inc | Virtual glasses trial systems using reference frames |
| EP3913424A1 (de) * | 2020-05-22 | 2021-11-24 | Carl Zeiss Vision International GmbH | Computerimplementiertes verfahren zur bestimmung von zentrierparametern für mobile endgeräte, mobiles endgerät und computerprogramm |
| US12108988B2 (en) | 2020-06-17 | 2024-10-08 | Warby Parker Inc. | System and method for measuring pupillary distance and uses thereof |
| JP6958828B1 (ja) * | 2020-12-22 | 2021-11-02 | 株式会社スワローインキュベート | 視距離推定方法、視距離推定装置、及び視距離推定プログラム |
| CN112819754A (zh) * | 2021-01-13 | 2021-05-18 | 浙江大华技术股份有限公司 | 一种人体测温方法、终端设备以及计算机可读存储介质 |
| NL2031115B1 (en) * | 2022-03-01 | 2023-09-07 | Easee Health B V | Method and system for determining a pupillary distance for a person. |
| CN115442525A (zh) * | 2022-08-31 | 2022-12-06 | 丁非 | 一种瞳距测量方法、系统、终端及存储介质 |
| CN121080898A (zh) * | 2025-08-25 | 2025-12-09 | 慧瞳科技(温州)有限公司 | 一种基于实时标定的瞳孔直径测量方法与装置 |
Family Cites Families (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5231674A (en) * | 1989-06-09 | 1993-07-27 | Lc Technologies, Inc. | Eye tracking method and apparatus |
| JP3976925B2 (ja) * | 1999-02-22 | 2007-09-19 | 株式会社ニデック | 眼位置測定装置 |
| US6535223B1 (en) * | 2000-05-31 | 2003-03-18 | Schmidt Laboratories, Inc. | Method and system for determining pupiltary distant and element height |
| JP2005103039A (ja) * | 2003-09-30 | 2005-04-21 | Pentax Corp | 瞳孔距離測定方法および測定器 |
| EP1728467A4 (en) | 2004-03-26 | 2009-09-16 | Hoya Corp | GLASS GLASS FEEDING SYSTEM, DEVICE FOR MEASURING PARAMETERS FOR GLASS BEAM, SYSTEM FOR INSPECTING THE GLASS BEARING, GLASSES AND GLASSES |
| JP4516536B2 (ja) * | 2005-03-09 | 2010-08-04 | 富士フイルム株式会社 | 動画生成装置、動画生成方法、及びプログラム |
| GB0713461D0 (en) * | 2007-07-11 | 2007-08-22 | Ct Meter Ltd | Device and methods for obtaining measurements for spectacles fitting |
| DE102008001451A1 (de) * | 2008-04-29 | 2009-11-05 | Robert Bosch Gmbh | Kamera und Verfahren zum Steuern einer Kamera |
| FR2936142B1 (fr) * | 2008-09-25 | 2011-12-09 | Essilor Int | Dispositif de mesure automatique des rayons corneens des deux yeux d'un individu |
| US8459792B2 (en) * | 2010-04-26 | 2013-06-11 | Hal E. Wilson | Method and systems for measuring interpupillary distance |
| WO2013046100A1 (en) * | 2011-09-28 | 2013-04-04 | Koninklijke Philips Electronics N.V. | Object distance determination from image |
| FR2980681A3 (fr) * | 2011-09-29 | 2013-04-05 | Fittingbox | Procede de determination des mesures oculaires et optiques d'interet pour la fabrication et le montage de verre de lunettes correcteurs, a l'aide d'une camera en contexte non controle |
| WO2013176265A1 (ja) * | 2012-05-25 | 2013-11-28 | 国立大学法人静岡大学 | 瞳孔検出方法、角膜反射検出方法、顔姿勢検出方法及び瞳孔追尾方法 |
| KR101300671B1 (ko) * | 2012-07-06 | 2013-08-27 | (주)뷰아이텍 | 안경 렌즈 제작을 위해 필요한 파라미터 측정 방법 및 이를 구현하기 위한 측정 장치 |
| KR101300670B1 (ko) * | 2012-11-14 | 2013-08-27 | (주)뷰아이텍 | 누진렌즈의 누진대 길이 설정을 위한 안구회선각 측정장치 및 그 방법 |
| RU2550011C1 (ru) | 2013-11-26 | 2015-05-10 | Общество с ограниченной ответственностью "Оптика-Центр" (ООО "Оптика-Центр") | Способ и устройство для монокулярного измерения межзрачкового расстояния |
| CN103793719A (zh) * | 2014-01-26 | 2014-05-14 | 深圳大学 | 一种基于人眼定位的单目测距方法和系统 |
| EP3295146B1 (en) * | 2015-05-10 | 2024-03-13 | 6 Over 6 Vision Ltd | Apparatus, system and method of determining one or more optical parameters of a lens |
| CN107847128B (zh) | 2015-05-11 | 2020-11-10 | 6超越6视觉有限公司 | 确定瞳孔距离的装置、系统和方法 |
-
2016
- 2016-05-10 CN CN201680040604.6A patent/CN107847128B/zh active Active
- 2016-05-10 BR BR112017024157-9A patent/BR112017024157B1/pt active IP Right Grant
- 2016-05-10 AU AU2016261275A patent/AU2016261275B2/en active Active
- 2016-05-10 JP JP2017558632A patent/JP6853188B2/ja active Active
- 2016-05-10 EP EP16792276.4A patent/EP3294112B1/en active Active
- 2016-05-10 ES ES16792276T patent/ES2986629T3/es active Active
- 2016-05-10 US US15/572,889 patent/US10702149B2/en active Active
- 2016-05-10 SG SG10201913884SA patent/SG10201913884SA/en unknown
- 2016-05-10 CA CA2985315A patent/CA2985315C/en active Active
- 2016-05-10 EP EP24196314.9A patent/EP4458252A3/en active Pending
- 2016-05-10 CN CN202011134236.6A patent/CN112674715A/zh active Pending
- 2016-05-10 WO PCT/IB2016/052671 patent/WO2016181308A1/en not_active Ceased
- 2016-05-10 KR KR1020177035681A patent/KR102591132B1/ko active Active
- 2016-05-10 RU RU2017139578A patent/RU2722303C2/ru active
-
2017
- 2017-11-09 IL IL255571A patent/IL255571B/en unknown
-
2020
- 2020-07-06 US US16/921,840 patent/US11931105B2/en active Active
-
2021
- 2021-05-18 AU AU2021203178A patent/AU2021203178B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| US10702149B2 (en) | 2020-07-07 |
| EP3294112C0 (en) | 2024-08-28 |
| AU2016261275A1 (en) | 2017-11-30 |
| EP3294112B1 (en) | 2024-08-28 |
| CN107847128B (zh) | 2020-11-10 |
| IL255571A (en) | 2018-01-31 |
| AU2021203178A1 (en) | 2021-06-17 |
| CN107847128A (zh) | 2018-03-27 |
| KR20180004271A (ko) | 2018-01-10 |
| EP4458252A3 (en) | 2025-01-08 |
| SG10201913884SA (en) | 2020-03-30 |
| CA2985315C (en) | 2023-09-26 |
| CN112674715A (zh) | 2021-04-20 |
| EP3294112A1 (en) | 2018-03-21 |
| US11931105B2 (en) | 2024-03-19 |
| KR102591132B1 (ko) | 2023-10-17 |
| CA2985315A1 (en) | 2016-11-17 |
| RU2722303C2 (ru) | 2020-05-28 |
| US20200397284A1 (en) | 2020-12-24 |
| BR112017024157B1 (pt) | 2022-11-16 |
| RU2017139578A (ru) | 2019-06-11 |
| EP4458252A2 (en) | 2024-11-06 |
| RU2017139578A3 (es) | 2019-08-12 |
| US20180140186A1 (en) | 2018-05-24 |
| AU2021203178B2 (en) | 2023-07-27 |
| JP2018518233A (ja) | 2018-07-12 |
| WO2016181308A1 (en) | 2016-11-17 |
| AU2016261275B2 (en) | 2021-02-18 |
| BR112017024157A2 (pt) | 2018-07-17 |
| IL255571B (en) | 2022-05-01 |
| EP3294112A4 (en) | 2019-01-30 |
| JP6853188B2 (ja) | 2021-03-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2986629T3 (es) | Aparato, sistema y método de determinación de una distancia pupilar | |
| ES2979076T3 (es) | Aparato, sistema y método de determinar uno o más parámetros ópticos de una lente | |
| JP7541970B2 (ja) | レンズの1つ以上の光学パラメータを決定するための機器、システム、および方法 | |
| US20200225113A1 (en) | Apparatus, system and method of determining one or more optical parameters of a lens | |
| CN113840566B (zh) | 确定被测眼睛的折射误差的一个或多个参数的装置、系统和方法 | |
| HK40064067A (en) | Apparatus, system and method of determining one or more optical parameters of a lens | |
| BR112021013754A2 (pt) | Aparelho, sistema e método para determinar um ou mais parâmetros de uma lente |