ES2286468T3 - Procedimiento y dispositivo para la captacion tridimensional de objetos asi como utilizacion del dispositivo y del procedimiento. - Google Patents

Procedimiento y dispositivo para la captacion tridimensional de objetos asi como utilizacion del dispositivo y del procedimiento. Download PDF

Info

Publication number
ES2286468T3
ES2286468T3 ES03764905T ES03764905T ES2286468T3 ES 2286468 T3 ES2286468 T3 ES 2286468T3 ES 03764905 T ES03764905 T ES 03764905T ES 03764905 T ES03764905 T ES 03764905T ES 2286468 T3 ES2286468 T3 ES 2286468T3
Authority
ES
Spain
Prior art keywords
color
sample
procedure
evaluation
procedure according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03764905T
Other languages
English (en)
Inventor
Peter Rummel
Christian Hoffmann
Frank Forster
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Siemens Corp
Original Assignee
Siemens AG
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corp filed Critical Siemens AG
Application granted granted Critical
Publication of ES2286468T3 publication Critical patent/ES2286468T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional [3D] objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Stacking Of Articles And Auxiliary Devices (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

Procedimiento para la captación tridimensional de objetos (3), en el que - sobre el objeto a captar (3) se proyecta una muestra de colores (5) con datos de proyección conocidos, - la muestra de colores (5) proyectada sobre el objeto (3) se capta mediante una cámara (6) y - la imagen (7) generada por la cámara (6) se procesa en una unidad de evaluación (9) para generar coordenadas de objeto tridimensionales correspondientes al objeto (3), caracterizado porque los datos de proyección se codifican en la muestra de colores (5) con ayuda de un código redundante.

Description

Procedimiento y dispositivo para la captación tridimensional de objetos así como utilización del dispositivo y del procedimiento.
La invención se refiere a un procedimiento para la captación tridimensional de objetos, en el que
-
sobre el objeto a captar se proyecta una muestra de colores con datos de proyección conocidos,
-
la muestra de colores proyectada sobre el objeto a captar se capta con ayuda de una cámara y
-
la imagen generada por la cámara se procesa en una unidad evaluadora para dar lugar a coordenadas de objeto tridimensionales.
La invención se refiere además a un dispositivo para ejecutar el procedimiento y a una aplicación del dispositivo y del procedimiento.
Los procedimientos para la captación tridimensional de objetos se necesitan para diversos fines de aplicación, entre otros también para la identificación y autentificación de personas. Así se conoce por ejemplo por la DE 199 63 333 A1 la proyección de una muestra de colores bidimensional compuesta por elementos de muestra de colores sobre un objeto a captar y la captación de la muestra de colores proyectada sobre el objeto a captar con ayuda de una cámara. Debido a la naturaleza espacial de la superficie del objeto a captar, las muestras de colores en la imagen captada por la cámara están desplazadas respecto a la disposición inicial, con lo que, para una posición conocida del proyector y de la cámara, pueden calcularse los datos tridimensionales de un punto del objeto sobre la superficie del objeto a captar.
El procedimiento conocido no es desde luego adecuado para escenas coloreadas. En el procedimiento conocido más bien es necesario captar una imagen de referencia con iluminación del objeto uniforme blanca. Esta imagen de referencia permite determinar los colores proyectados en la imagen de muestra. Puesto que en el procedimiento conocido son necesarias al menos dos tomas, sólo es limitadamente adecuado para objetos que se mueven o deforman. Por ello este procedimiento conocido es adecuado sólo limitadamente para captar una mano o una cara.
Por la publicación P. Vuylsteke y A. Oosterlinck, "Adquisición de imagen de rango con una única muestra de luz codificada binariamente", actas IEEE relativas al análisis de muestras e inteligencia de máquinas, vol. 12, núm. 2, febrero 1990, se conoce la proyección sobre el objeto a captar de una muestra bidimensional blanco-negro con codificación adicional. Al respecto se intenta averiguar el ángulo de proyección para cada punto de la imagen de la cámara a partir del entorno de la imagen del punto. En particular se intenta calcular el ángulo de proyección del correspondiente punto a partir de las distorsiones de la muestra proyectada, que resultan debido a la orientación espacial de la superficie del objeto desde el punto de vista de la cámara. Esto se logra adecuadamente no obstante sólo en objetos con una superficie de evolución continua. Pero cuando en el objeto a captar hay saltos de profundidad, se ven perturbados los elementos de muestra de codificación del entorno del punto, lo que da lugar a ángulos de proyección que no pueden determinarse o que son falsos y, como resultado, a coordenadas tridimensionales del objeto falsas.
Partiendo de este estado de la técnica, tiene la invención por lo tanto como tarea básica indicar un procedimiento para la captación tridimensional de objetos que no se vea afectado por el coloreado ni por los saltos de profundidad del objeto a captar.
La invención tiene además como tarea básica indicar un dispositivo para realizar el procedimiento.
Estas tareas se resuelven mediante un procedimiento y un dispositivo con las particularidades de las reivindicaciones independientes. En las reivindicaciones dependientes de las mismas se indican perfeccionamientos y mejoras ventajosos de la invención.
En el procedimiento según la invención se codifican las coordenadas de proyección en la muestra de colores con ayuda de un código redundante. La utilización de una muestra de colores para la codificación ofrece la ventaja de que la codificación puede realizarse de manera compacta tal que sea improbable que el código resulte dañado debido a saltos de profundidad o a ocultamientos, en particular en el reconocimiento del rostro. Además, la codificación es robusta frente a errores, ya que con ayuda de la codificación redundante pueden detectarse y eliminarse en la imagen falseamientos de color provocados por el coloreado del objeto.
Un dispositivo preparado para la realización del procedimiento presenta por lo tanto un proyector, que proyecta una muestra de colores codificada redundantemente sobre el objeto a captar.
En una forma constructiva preferente del procedimiento, están divididos los valores de color de la muestra de colores en palabras de código. Las palabras de código presentan entonces ventajosamente una distancia Hamming no trivial. Bajo distancia Hamming no trivial debe entenderse aquí una distancia Hamming mayor que 1. Con esta forma de codificación se lograron buenos resultados en el reconocimiento de los datos de proyección codificados.
La robustez de la codificación puede incremantarse además solapándose las palabras de código.
Otras medidas se refieren a las modificaciones de color en los distintos canales. La precisión del reconocimiento puede aumentarse por ejemplo pudiendo asumir los valores de colores en cada canal de color sólo en cada caso dos valores de color previamente determinados. De manera conveniente, se realiza la modificación del color en cada canal de color entre un valor mínimo posible y otro valor máximo posible.
Además, puede exigirse que las modificaciones de color tengan que realizarse simultáneamente en al menos dos canales de color.
Mediante estas dos medidas pueden eliminarse perturbaciones atribuibles a modificaciones del color del objeto a captar.
Otra exigencia razonable a la muestra de colores se refiere a la cantidad de modificaciones de color en cada palabra de código. Cuando en cada palabra de código en cada uno de los canales de color tiene lugar al menos una modificación de color, no pueden propagarse los errores de reconocimiento a lo largo de varias palabras de código.
Puede mejorarse aún más la precisión de reconocimiento reuniendo también las modificaciones de color en palabras de código de un código codificado de manera redundante. Mediante estas exigencias a la codificación de la muestra de colores, pueden detectarse de manera fiable errores en la decodificación.
La decodificación se realiza entonces detectándose en la unidad evaluadora los puntos de inflexión de la señal de medida detectada mediante la determinación de los máximos de la primera derivada. Los puntos de inflexión así detectados, que pueden ser asociados a modificaciones de color potenciales, se comprueban a continuación en relación con los criterios que cumple la codificación de los códigos de color. Entre otros, se comprueba entonces la magnitud de la variación de color y la correlación de las variaciones de color entre los canales. Otro criterio es por ejemplo que los puntos de inflexión con pendiente positiva y negativa deben presentarse en cada caso por pares y que las modificaciones de color deben corresponderse con las palabras de código de las modificaciones de color.
Finalmente, se comprueban las modificaciones de color en cuanto a coincidencia con las palabras de código codificadas de la modificación de color y se determinan los datos de proyección asociados a un punto de la imagen captada. A partir de los datos de proyección y de las coordenadas del correspondiente punto en la imagen captada por la cámara, pueden calcularse entonces las coordenadas tridimensionales de objeto de la superficie del objeto a captar.
A continuación se describirá la invención en detalle en base al dibujo junto. Se muestra en:
Figura 1 una vista de un dispositivo para la captación tridimensional de datos de objeto;
Figuras 2a a c diagramas que visualizan la reducción de datos; y
Figuras 3a y b representaciones de líneas de perfil reconstruidas de un objeto captado.
En la figura 1 se representa un dispositivo 1 que sirve para determinar las coordenadas tridimensionales de objeto de una superficie 2 de un objeto a captar 3.
El dispositivo 1 presenta un proyector 4, que proyecta una muestra de colores 5 sobre la superficie 2 del objeto 3 a captar. En el caso representado en la figura 1, la muestra de colores 5 está compuesta por una serie de bandas de colores situadas una al lado de otra. Puede imaginarse también utilizar una muestra de colores bidimensional en lugar de la muestra de colores monodimensional 5 representada en la figura 1.
En el ejemplo de ejecución representado en la figura 1 puede asociarse a cada punto P de la superficie 2 del objeto 3 un plano de proyección g. Mediante la muestra de colores 5 quedan codificados así los datos de proyección. La muestra de colores 5 proyectada sobre la superficie 2 del objeto 3 es transformada mediante una cámara 6 en una imagen 7, en la que el punto P sobre la superficie 2 se transforma en el punto P'. Con una disposición conocida del proyector 4 y de la cámara 6, en particular cuando se conoce la longitud de un tramo de base 8, pueden calcularse mediante triangulación las coordenadas espaciales tridimensionales del punto P sobre la superficie 2. La reducción de datos necesaria para ello, así como la evaluación, son realizadas por una unidad de evaluación 9.
Para posibilitar la determinación de las coordenadas espaciales tridimensionales del punto P sobre la superficie 2 a partir de una única imagen 7, incluso cuando la superficie 2 del objeto 3 tiene saltos de profundidad y ocultaciones, la muestra de colores 5 está constituida de tal manera que la codificación de los planos de proyección g es lo más robusta posible frente a errores. Además, mediante la codificación pueden eliminarse errores que provienen del coloreado del objeto.
En los ejemplos de ejecución representados en la figura 1 se describen los colores de la muestra de colores 5 mediante el modelo RGB (Red-Green-Blue). Las modificaciones de los valores de colores de la muestra de colores 5 se realizan mediante modificaciones de los valores de colores en los distintos canales de colores R, G y B.
La muestra de colores debe entonces responder a las siguientes condiciones:
-
En cada canal de color se utilizan solamente dos valores de color. En particular se utiliza en cada canal de color en cada caso el valor mínimo y el valor máximo, con lo que en el modelo RGB se dispone en total de ocho colores.
-
Dentro de una palabra de código presenta cada canal de color al menos una modificación de color. Esta condición posibilita la decodificación de las palabras de código individuales.
-
Los elementos de color que se encuentran uno junto a otro se diferencian en al menos dos canales de color. Esta condición sirve especialmente para asegurar la tolerancia a errores, en particular frente a saltos de profundidad.
-
Las distintas palabras de código de la muestra de colores 5 presentan una distancia Hamming no trivial. También esta condición sirve para aumentar la tolerancia frente a errores al decodificar los planos de proyección g.
-
También las modificaciones de color se reúnen en palabras de código con una distancia Hamming no trivial.
A continuación citaremos un ejemplo para la muestra de colores 5 que cumple con las cinco condiciones antes citadas. Esta muestra de colores 5 se refiere al modelo RGB con un canal de color R rojo, un canal de color G verde y un canal de color B azul. Puesto que los valores de color en cada canal de color sólo pueden asumir en cada caso el valor mínimo y el valor máximo, se dispone en total de ocho colores de mezcla, a los que se asignan en cada caso los siguientes valores:
negro 0
azul 1
verde 2
cian 3
rojo 4
magenta 5
amarillo 6
blanco 7.
Para las palabras de código de los valores de color se eligió una longitud de cuatro bandas de color, solapándose palabras de código contiguas en cada caso con tres bandas de color.
También a las modificaciones de color se les asignaron valores numéricos. Puesto que en cada uno de los tres canales de color permanece igual el valor del color o bien puede descender o aumentar, resultan en total 27 modificaciones de color distintas del color de mezcla, a las que en cada caso se ha asignado un número entre 0 y 26. La longitud de las palabras de código asignadas a las modificaciones de color se eligió igual a tres modificaciones de color, solapándose palabras de código contiguas en cada caso con dos modificaciones de color.
Mediante un algoritmo de búsqueda se encontró la siguiente secuencia de números, que describe un ejemplo de ejecución de la muestra de color 5 que cumple con las cinco condiciones antes citadas:
124307056121741427034212721653417161436160530635271707241630525074714706503560363474350617
2524253607
En el ejemplo de ejecución indicado la primera palabra de código está compuesta por las cifras 1243, la segunda palabra de código por las cifras 2340 y la tercera palabra de código por las cifras 4307. El ejemplo de ejecución mostrado tiene una codificación muy robusta.
Las figuras 2a a c visualizan la reducción de datos. En la figura 2a se representa una señal de color inicial 10. Debido a la superficie 2 del objeto 3, se deforma la señal de color inicial 10 para formar una señal de medida 11. Para una mayor claridad indiquemos que la señal de color 10 y la señal de medida 11 se han representado en una dirección perpendicular a las bandas de color de la muestra de colores 5 representada en la figura 1.
Para la reducción de datos se calcula en una primera etapa una primera derivada 12 de la señal de medida 11. A continuación se determinan los puntos de inflexión de la señal de medida 11, calculándose los valores extremos 13 de la primera derivada 12. La posición exacta se calcula mediante ajuste directo de una parábola o de un polinomio cúbico al entorno de un valor extremo de la derivada 12. Los valores extremos que de ello resultan se reúnen, en función de su distribución espacial, en valores extremos de la señal de color mezclada, que se extienden por varios canales de color. La posición de los valores extremos que se extienden por varios canales de color se calcula formando un valor medio ponderado de la posición de los valores extremos en los distintos canales de color. Los factores que sirven para la ponderación se forman sobre la base de la calidad de la curva de ajuste y de la relación señal/ruido de la señal de medida 11. Los valores extremos individuales a los que no corresponde ningún otro valor extremo en otro canal de color, se ignoran a continuación. Puesto que la probabilidad de que se presente un valor extremo sin la correspondiente transición de color es muy baja, éste es un elemento efectivo para eliminar distorsiones debidas al ruido. En la figura 2c puede eliminarse por ejemplo el valor extremo 14 erróneamente detectado.
En otra etapa del procedimiento se unen los valores extremos idénticos para formar líneas de perfil 15. La figura 3a muestra el resultado para el caso de que los valores extremos no se sometan a ningún otro filtrado. Puesto que no obstante las modificaciones de color están estructuradas con ayuda de palabras de código que se solapan, que presentan entre sí una distancia Hamming no trivial, pueden eliminarse por filtrado también aquellos valores extremos que se asientan en los bordes de color en el coloreado de la superficie 2. El resultado se representa en la figura 3b. Por lo tanto, el procedimiento aquí descrito está perfectamente en condiciones de identificar las líneas de perfil 15 efectivas de las modificaciones de color que se basan en modificaciones de color en la muestra de color 5.
A continuación pueden asignarse a los puntos P de la imagen 7 mediante la codificación de color los planos del proyector g. Los datos de objeto tridimensionales de la superficie resultan entonces mediante una triangulación, cuando la disposición de la cámara 6 y del proyector 4 son conocidas.
El procedimiento aquí conocido puede utilizarse también para determinar el coloreado del objeto 3 a captar. El valor de color de un punto P en la imagen 7 puede describirse mediante la siguiente fórmula:
R_{c} = r_{c} \cdot \int_{\Delta\lambda}s_{c}(\lambda)\cdot I_{p}(\lambda)d\lambda+r_{c}\cdot\int_{\Delta\lambda}s_{c}(\lambda)\cdot I_{A}(\lambda)d\lambda
siendo s_{c}(\lambda) la sensibilidad espectral de un elemento sensor en la cámara 6, r_{c}(\lambda) la reflectividad espectral de las correspondientes superficies 2, I_{p}(\lambda) la intensidad espectral de la radiación emitida por el proyector 4 e I_{a}(\lambda) la intensidad de la iluminación de fondo. Puesto que I_{p}(\lambda) se conoce para cada punto P tras realizar el procedimiento antes descrito, y bajo la suposición de que R_{c}(\lambda) es esencialmente igual a una constante r_{c}, puede calcularse a partir del valor R_{c} medido en cada canal de color la constante r_{c}, cuando puede despreciarse la influencia de la iluminación de fondo. A partir de las reflectividades r_{c} de los 3 canales de color puede deducirse entonces el coloreado de la superficie 2. Teniendo en cuenta los valores contiguos de r_{c}, es finalmente posible captar al menos la parte de baja frecuencia del coloreado del objeto 3.
El procedimiento se ha probado ya exhaustivamente. Se utilizó una muestra de colores en la que 104 bandas formaban una codificación inequívoca. Para la muestra de colores 5 proyectada se utilizaron no obstante en total 156 planos de luz, ya que la geometría de la configuración del ensayo permite una repetición parcial de la muestra codificada.
Para el proyector 4 se utilizó tanto un proyector de diapositivas sencillo como también un proyector LCD. Un proyector de diapositivas sencillo, cuya óptica está optimizada para una gran profundidad de foco, es al respecto la mejor alternativa bajo consideraciones económicas.
Para la cámara se utilizaron distintas cámaras RGB con una resolución de 574 x 768 píxeles. Para suprimir una superposición entre los distintos canales de color en lo posible, es esencial una buena separación de colores en la cámara 6. Para la unidad de evaluación 9 se utilizó un computador con un procesador Pentium IV de 2,4 GHz. Con ello se pudieron captar y analizar, incluso sin optimización de la velocidad del código del programa, hasta 15 imágenes por segundo. El procedimiento es por lo tanto perfectamente adecuado para el reconocimiento de gestos.
El procedimiento funciona de manera fiable cuando la variación del coloreado de la superficie 2 y de la iluminación de fondo no se corresponde en cuanto a frecuencia y amplitud con el coloreado de la muestra de colores 5. Esto puede observarse también en las figuras 3a y 3b, en las que los dedos 16 se apoyan sobre una base 17 de varios colores.
Una superficie debe ser de un tamaño de al menos 8 x 8 píxeles en la figura 7 para que pueda asignársele una coordenada tridimensional, ya que para la evaluación son necesarias al menos dos bandas de colores completas, teniendo una banda de colores en la cámara 6 al menos 3 píxeles de anchura.
Puesto que en la ejecución del procedimiento aquí descrito es suficiente una única toma de la superficie 2 para determinar coordenadas tridimensionales de la superficie 2, el procedimiento aquí descrito y el dispositivo aquí descrito son adecuados en particular para la captación de objetos que se mueven o deforman. El procedimiento aquí descrito es adecuado por lo tanto en particular en el marco de la biometría para el reconocimiento de rostros y el reconocimiento de gestos. En particular es adecuado el procedimiento aquí descrito sobre todo para la identificación y autentificación de personas.
\newpage
Otros campos de aplicación se refieren al aseguramiento de la calidad de productos, la medición de objetos en el diseño, por ejemplo para el reequipamiento, para reparaciones o para la ampliación de máquinas o instalaciones existentes o el modelado tridimensional de objetos en el sector de multimedia y de los juegos.
Señalemos que pueden utilizarse también otros modelos de color, por ejemplo del modelo YUV (luminancia/cromi-
nancia) para la descripción de la muestra de colores 5.
Señalemos además que bajo el concepto cámara se entiende cualquier sistema de reproducción de imagen.

Claims (16)

1. Procedimiento para la captación tridimensional de objetos (3), en el que
-
sobre el objeto a captar (3) se proyecta una muestra de colores (5) con datos de proyección conocidos,
-
la muestra de colores (5) proyectada sobre el objeto (3) se capta mediante una cámara (6) y
-
la imagen (7) generada por la cámara (6) se procesa en una unidad de evaluación (9) para generar coordenadas de objeto tridimensionales correspondientes al objeto (3),
caracterizado porque los datos de proyección se codifican en la muestra de colores (5) con ayuda de un código redundante.
2. Procedimiento según la reivindicación 1,
en el que se estructuran valores de color en la muestra de colores (5) con ayuda de palabras de código de un código redundante y en el que los datos de proyección de un punto (P) de la imagen (7) se identifican con ayuda de una búsqueda realizada por la unidad de evaluación (9) para encontrar las palabras de codificación que codifican los valores de colores.
3. Procedimiento según la reivindicación 1 ó 2,
en el que las modificaciones de color de la muestra de colores (5) se estructuran con ayuda de palabras de código de un código redundante y en el que durante la evaluación en la unidad de evaluación (9) se permiten a las palabras de códigos las modificaciones de color correspondientes como modificaciones de color válidas.
4. Procedimiento según la reivindicación 2 ó 3,
en el que se utilizan palabras de código con una distancia Hamming no trivial.
5. Procedimiento según una de las reivindicaciones 2 a 4,
en el que las palabras de código se disponen solapándose.
6. Procedimiento según una de las reivindicaciones 1 a 5,
en el que los valores de color varían en cada canal de color entre dos valores.
7. Procedimiento según la reivindicación 6,
en el que los valores de color varían en cada canal de color entre un valor mínimo y un valor máximo.
8. Procedimiento según una de las reivindicaciones 1 a 7,
en el que los valores de color se modifican conjuntamente en al menos dos canales y en el que se admiten las modificaciones de color que se presentan conjuntamente en al menos dos canales de color durante la evaluación en la unidad de evaluación (9) como variaciones de color válidas.
9. Procedimiento según una de las reivindicaciones 1 a 8,
en el que en cada canal de color se realiza dentro de cada palabra de código al menos una modificación de color.
10. Procedimiento según una de las reivindicaciones 1 a 9,
en el que en la unidad de evaluación (9) se determinan las posiciones de modificaciones de color en cada canal de color con ayuda de valores extremos de una primera derivada (12) de una señal de medida (11).
11. Procedimiento según una de las reivindicaciones 1 a 10,
en el que la muestra de colores (5) se configura con forma de bandas y en el que durante la evaluación en la unidad de evaluación (9) se unen las variaciones de color que se corresponden entre sí para formar líneas de perfiles (15).
12. Procedimiento según una de las reivindicaciones 1 a 11,
en el que se realiza una única toma de la imagen (7) para determinar las coordenadas tridimensionales de la superficie (2) del objeto (3).
13. Procedimiento según una de las reivindicaciones 1 a 12,
en el que mediante la evaluación del color de la muestra de colores (5) captado en la imagen (7) y del color proyectado inicialmente en la muestra de colores (5), se reconstruye un coloreado de la superficie (2) del objeto (3).
14. Dispositivo para la identificación tridimensional de objetos con un proyector (4) para la proyección de una muestra de colores (5) sobre una superficie (2) de un objeto a captar (3) y con una cámara (6) para captar una imagen (7) de la muestra de colores (5) proyectada sobre la superficie (2), así como con una unidad de evaluación (9) para evaluar la imagen (7),
caracterizado porque las muestras de colores (5) que puede proyectar el proyector (4) y la unidad evaluación (9) están diseñadas para la realización del procedimiento según una de las reivindicaciones 1 a 13.
15. Utilización del procedimiento según una de las reivindicaciones 1 a 13 o del dispositivo según la reivindicación 14 para el reconocimiento de rostros de personas.
16. Utilización del procedimiento según una de las reivindicaciones 1 a 13 o del dispositivo según la reivindicación 14 para la identificación de gestos de personas.
ES03764905T 2002-07-18 2003-07-17 Procedimiento y dispositivo para la captacion tridimensional de objetos asi como utilizacion del dispositivo y del procedimiento. Expired - Lifetime ES2286468T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10232690 2002-07-18
DE10232690A DE10232690A1 (de) 2002-07-18 2002-07-18 Verfahren und Vorrichtung zur dreidimensionalen Erfassung von Objekten sowie Verwendung der Vorrichtung und des Verfahrens

Publications (1)

Publication Number Publication Date
ES2286468T3 true ES2286468T3 (es) 2007-12-01

Family

ID=30128161

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03764905T Expired - Lifetime ES2286468T3 (es) 2002-07-18 2003-07-17 Procedimiento y dispositivo para la captacion tridimensional de objetos asi como utilizacion del dispositivo y del procedimiento.

Country Status (10)

Country Link
US (1) US7388678B2 (es)
EP (1) EP1523654B1 (es)
JP (1) JP4988155B2 (es)
CN (1) CN1302258C (es)
AT (1) ATE366404T1 (es)
AU (1) AU2003250787B2 (es)
DE (2) DE10232690A1 (es)
DK (1) DK1523654T3 (es)
ES (1) ES2286468T3 (es)
WO (1) WO2004010076A1 (es)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10335829A1 (de) 2003-08-05 2005-03-10 Siemens Ag Verfahren zur Bestimmung der Achsgeometrie und Sensor zu dessen Durchführung
IL157877A0 (en) * 2003-09-11 2004-03-28 Imagine It S Happening Ltd Color edge based 3d scanner
DE102004008904A1 (de) * 2004-02-24 2005-09-08 Siemens Ag Vorrichtung und Verfahren zur Bestimmung von Raumkoordinaten eines Objekts
US8477154B2 (en) * 2006-03-20 2013-07-02 Siemens Energy, Inc. Method and system for interactive virtual inspection of modeled objects
US8244025B2 (en) * 2006-03-20 2012-08-14 Siemens Energy, Inc. Method of coalescing information about inspected objects
US7689003B2 (en) * 2006-03-20 2010-03-30 Siemens Energy, Inc. Combined 2D and 3D nondestructive examination
DE102006037778B4 (de) * 2006-08-11 2011-02-10 Siemens Ag Anordnung und Verfahren zur Bewegungskompensation von Patienten während Eingriffen
CN101627280B (zh) 2006-11-21 2013-09-25 曼蒂斯影像有限公司 三维几何建模和三维视频内容创建
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
US20080156619A1 (en) 2006-12-01 2008-07-03 Mehul Patel Range finder
CN101349551B (zh) * 2007-07-20 2012-08-29 通用电气公司 轮廓测定设备及操作方法
CN101609326B (zh) * 2008-06-20 2012-09-19 鸿富锦精密工业(深圳)有限公司 加减速控制装置及加减速控制方法
CA2771727C (en) 2009-11-04 2013-01-08 Technologies Numetrix Inc. Device and method for obtaining three-dimensional object surface data
WO2012033109A1 (en) 2010-09-08 2012-03-15 Canon Kabushiki Kaisha Method and apparatus for 3d-measurement by detecting a predetermined pattern
WO2012074505A1 (en) * 2010-11-29 2012-06-07 Hewlett-Packard Development Company, L.P. System and method for creating a three-dimensional image file
WO2012133926A2 (en) * 2011-04-01 2012-10-04 Nikon Corporation Profile measuring apparatus, method for measuring profile, and method for manufacturing structure
DE102011077564B4 (de) 2011-06-15 2016-08-25 Sirona Dental Systems Gmbh Verfahren zur optischen dreidimensionalen Vermessung eines dentalen Objekts
DE102011123029B3 (de) 2011-06-15 2021-09-02 Sirona Dental Systems Gmbh Verfahren zur optischen dreidimensionalen Vermessung eines dentalen Objekts
US9188433B2 (en) 2012-05-24 2015-11-17 Qualcomm Incorporated Code in affine-invariant spatial mask
DE102013200898A1 (de) 2013-01-21 2014-07-24 Siemens Aktiengesellschaft Endoskop, insbesondere für die minimal-invasive Chirurgie
US9860520B2 (en) * 2013-07-23 2018-01-02 Sirona Dental Systems Gmbh Method, system, apparatus, and computer program for 3D acquisition and caries detection
US10068338B2 (en) * 2015-03-12 2018-09-04 Qualcomm Incorporated Active sensing spatial resolution improvement through multiple receivers and code reuse
DE102015205187A1 (de) * 2015-03-23 2016-09-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Projektion von Linienmustersequenzen
US9846943B2 (en) 2015-08-31 2017-12-19 Qualcomm Incorporated Code domain power control for structured light
US10012496B2 (en) * 2015-10-29 2018-07-03 Canon Kabushiki Kaisha Multispectral binary coded projection using multiple projectors
DE102018100439A1 (de) 2018-01-10 2019-07-11 Kulzer Gmbh Virtuelle 3D-Darstellung des Mundraums
CN110763150B (zh) * 2018-07-26 2021-05-25 王东 一种面部轮廓测量方法
ES2937257T3 (es) * 2018-07-27 2023-03-27 Fraunhofer Ges Forschung Equipo y procedimiento para crear y vigilar un área de seguridad en un espacio de trabajo
EP3879226B1 (en) 2018-11-08 2023-01-04 Chengdu Pin Tai Ding Feng Business Administration Three-dimensional measurement device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2627047B1 (fr) * 1988-02-09 1990-07-27 Vision 3D Procede de numerisation de la surface d'un objet tridimensionnel et appareil de releve en vue de sa mise en oeuvre
DE19638727A1 (de) 1996-09-12 1998-03-19 Ruedger Dipl Ing Rubbert Verfahren zur Erhöhung der Signifikanz der dreidimensionalen Vermessung von Objekten
US5912644A (en) * 1997-08-05 1999-06-15 Wang; James J. M. Spread spectrum position determination, ranging and communication system
US6341016B1 (en) * 1999-08-06 2002-01-22 Michael Malione Method and apparatus for measuring three-dimensional shape of object
DE19963333A1 (de) * 1999-12-27 2001-07-12 Siemens Ag Verfahren zur Ermittlung von dreidimensionalen Oberflächenkoordinaten
US7092014B1 (en) * 2000-06-28 2006-08-15 Microsoft Corporation Scene capturing and view rendering based on a longitudinally aligned camera array
DE10335829A1 (de) * 2003-08-05 2005-03-10 Siemens Ag Verfahren zur Bestimmung der Achsgeometrie und Sensor zu dessen Durchführung
US20050068544A1 (en) * 2003-09-25 2005-03-31 Gunter Doemens Panoramic scanner

Also Published As

Publication number Publication date
DE50307617D1 (de) 2007-08-16
EP1523654A1 (de) 2005-04-20
CN1302258C (zh) 2007-02-28
AU2003250787B2 (en) 2008-10-02
CN1668890A (zh) 2005-09-14
JP2005538347A (ja) 2005-12-15
JP4988155B2 (ja) 2012-08-01
WO2004010076A1 (de) 2004-01-29
AU2003250787A1 (en) 2004-02-09
ATE366404T1 (de) 2007-07-15
US20060098212A1 (en) 2006-05-11
EP1523654B1 (de) 2007-07-04
DK1523654T3 (da) 2007-10-29
US7388678B2 (en) 2008-06-17
DE10232690A1 (de) 2004-02-12

Similar Documents

Publication Publication Date Title
ES2286468T3 (es) Procedimiento y dispositivo para la captacion tridimensional de objetos asi como utilizacion del dispositivo y del procedimiento.
US10235584B2 (en) System for object authenticity detection including a reference image acquisition module and a user module and methods therefor
CN102878950B (zh) 用于三维轮廓测量的系统和方法
US20150103358A1 (en) System and method for non-contact measurement of 3d geometry
CN101627280B (zh) 三维几何建模和三维视频内容创建
US7039220B2 (en) Methods and apparatus for the dimensional measurement of livestock using a single camera
US9074868B2 (en) Automated borescope measurement tip accuracy test
US9239274B2 (en) Evaluation of the relief of a tire surface by active stereovision
US20140002610A1 (en) Real-time 3d shape measurement system
ES2316413T3 (es) Procedimiento para el reconocimiento de desviaciones de la forma superficial de una forma predeterminada.
US20090040532A1 (en) Three-dimensional shape measuring method and apparatus for the same
JP2002191058A (ja) 3次元画像取得装置および3次元画像取得方法
TWI642896B (zh) 利用光學感測器之耐磨液壓/氣動活塞位置感測裝置及方法
JP2014505855A (ja) シーン内の奥行き値を測定する方法
CN102576408A (zh) 多路复用的生物计量成像和双成像器生物计量传感器
WO2017033178A1 (en) System and method for object authenticity detection
US9068904B2 (en) System and method for non-contact metrology of surfaces
CN106461379B (zh) 借助彩色条带图案对检测对象表面的深度确定
US20150098092A1 (en) Device and Method For the Simultaneous Three-Dimensional Measurement of Surfaces With Several Wavelengths
TW201337211A (zh) 形狀反射器及表面輪廓映射
Benveniste et al. A color invariant for line stripe-based range scanners
ES2505330B2 (es) Procedimiento para la estimación automática de los componentes de la producción de un racimo de vid mediante visión artificial
TWI532974B (zh) 利用條紋編碼量測物體形貌的方法
Muhr et al. A triangulation method for 3D-measurement of specular surfaces
US8036423B2 (en) Contrast-based technique to reduce artifacts in wavelength-encoded images