ES2286468T3 - Procedimiento y dispositivo para la captacion tridimensional de objetos asi como utilizacion del dispositivo y del procedimiento. - Google Patents
Procedimiento y dispositivo para la captacion tridimensional de objetos asi como utilizacion del dispositivo y del procedimiento. Download PDFInfo
- Publication number
- ES2286468T3 ES2286468T3 ES03764905T ES03764905T ES2286468T3 ES 2286468 T3 ES2286468 T3 ES 2286468T3 ES 03764905 T ES03764905 T ES 03764905T ES 03764905 T ES03764905 T ES 03764905T ES 2286468 T3 ES2286468 T3 ES 2286468T3
- Authority
- ES
- Spain
- Prior art keywords
- color
- sample
- procedure
- evaluation
- procedure according
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2518—Projection by scanning of the object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional [3D] objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Stacking Of Articles And Auxiliary Devices (AREA)
- Spectrometry And Color Measurement (AREA)
Abstract
Procedimiento para la captación tridimensional de objetos (3), en el que - sobre el objeto a captar (3) se proyecta una muestra de colores (5) con datos de proyección conocidos, - la muestra de colores (5) proyectada sobre el objeto (3) se capta mediante una cámara (6) y - la imagen (7) generada por la cámara (6) se procesa en una unidad de evaluación (9) para generar coordenadas de objeto tridimensionales correspondientes al objeto (3), caracterizado porque los datos de proyección se codifican en la muestra de colores (5) con ayuda de un código redundante.
Description
Procedimiento y dispositivo para la captación
tridimensional de objetos así como utilización del dispositivo y del
procedimiento.
La invención se refiere a un procedimiento para
la captación tridimensional de objetos, en el que
- -
- sobre el objeto a captar se proyecta una muestra de colores con datos de proyección conocidos,
- -
- la muestra de colores proyectada sobre el objeto a captar se capta con ayuda de una cámara y
- -
- la imagen generada por la cámara se procesa en una unidad evaluadora para dar lugar a coordenadas de objeto tridimensionales.
La invención se refiere además a un dispositivo
para ejecutar el procedimiento y a una aplicación del dispositivo y
del procedimiento.
Los procedimientos para la captación
tridimensional de objetos se necesitan para diversos fines de
aplicación, entre otros también para la identificación y
autentificación de personas. Así se conoce por ejemplo por la DE
199 63 333 A1 la proyección de una muestra de colores bidimensional
compuesta por elementos de muestra de colores sobre un objeto a
captar y la captación de la muestra de colores proyectada sobre el
objeto a captar con ayuda de una cámara. Debido a la naturaleza
espacial de la superficie del objeto a captar, las muestras de
colores en la imagen captada por la cámara están desplazadas
respecto a la disposición inicial, con lo que, para una posición
conocida del proyector y de la cámara, pueden calcularse los datos
tridimensionales de un punto del objeto sobre la superficie del
objeto a captar.
El procedimiento conocido no es desde luego
adecuado para escenas coloreadas. En el procedimiento conocido más
bien es necesario captar una imagen de referencia con iluminación
del objeto uniforme blanca. Esta imagen de referencia permite
determinar los colores proyectados en la imagen de muestra. Puesto
que en el procedimiento conocido son necesarias al menos dos tomas,
sólo es limitadamente adecuado para objetos que se mueven o
deforman. Por ello este procedimiento conocido es adecuado sólo
limitadamente para captar una mano o una cara.
Por la publicación P. Vuylsteke y A.
Oosterlinck, "Adquisición de imagen de rango con una única muestra
de luz codificada binariamente", actas IEEE relativas al
análisis de muestras e inteligencia de máquinas, vol. 12, núm. 2,
febrero 1990, se conoce la proyección sobre el objeto a captar de
una muestra bidimensional blanco-negro con
codificación adicional. Al respecto se intenta averiguar el ángulo
de proyección para cada punto de la imagen de la cámara a partir
del entorno de la imagen del punto. En particular se intenta
calcular el ángulo de proyección del correspondiente punto a partir
de las distorsiones de la muestra proyectada, que resultan debido a
la orientación espacial de la superficie del objeto desde el punto
de vista de la cámara. Esto se logra adecuadamente no obstante sólo
en objetos con una superficie de evolución continua. Pero cuando en
el objeto a captar hay saltos de profundidad, se ven perturbados
los elementos de muestra de codificación del entorno del punto, lo
que da lugar a ángulos de proyección que no pueden determinarse o
que son falsos y, como resultado, a coordenadas tridimensionales
del objeto falsas.
Partiendo de este estado de la técnica, tiene la
invención por lo tanto como tarea básica indicar un procedimiento
para la captación tridimensional de objetos que no se vea afectado
por el coloreado ni por los saltos de profundidad del objeto a
captar.
La invención tiene además como tarea básica
indicar un dispositivo para realizar el procedimiento.
Estas tareas se resuelven mediante un
procedimiento y un dispositivo con las particularidades de las
reivindicaciones independientes. En las reivindicaciones
dependientes de las mismas se indican perfeccionamientos y mejoras
ventajosos de la invención.
En el procedimiento según la invención se
codifican las coordenadas de proyección en la muestra de colores
con ayuda de un código redundante. La utilización de una muestra de
colores para la codificación ofrece la ventaja de que la
codificación puede realizarse de manera compacta tal que sea
improbable que el código resulte dañado debido a saltos de
profundidad o a ocultamientos, en particular en el reconocimiento
del rostro. Además, la codificación es robusta frente a errores, ya
que con ayuda de la codificación redundante pueden detectarse y
eliminarse en la imagen falseamientos de color provocados por el
coloreado del objeto.
Un dispositivo preparado para la realización del
procedimiento presenta por lo tanto un proyector, que proyecta una
muestra de colores codificada redundantemente sobre el objeto a
captar.
En una forma constructiva preferente del
procedimiento, están divididos los valores de color de la muestra
de colores en palabras de código. Las palabras de código presentan
entonces ventajosamente una distancia Hamming no trivial. Bajo
distancia Hamming no trivial debe entenderse aquí una distancia
Hamming mayor que 1. Con esta forma de codificación se lograron
buenos resultados en el reconocimiento de los datos de proyección
codificados.
La robustez de la codificación puede
incremantarse además solapándose las palabras de código.
Otras medidas se refieren a las modificaciones
de color en los distintos canales. La precisión del reconocimiento
puede aumentarse por ejemplo pudiendo asumir los valores de colores
en cada canal de color sólo en cada caso dos valores de color
previamente determinados. De manera conveniente, se realiza la
modificación del color en cada canal de color entre un valor mínimo
posible y otro valor máximo posible.
Además, puede exigirse que las modificaciones de
color tengan que realizarse simultáneamente en al menos dos canales
de color.
Mediante estas dos medidas pueden eliminarse
perturbaciones atribuibles a modificaciones del color del objeto a
captar.
Otra exigencia razonable a la muestra de colores
se refiere a la cantidad de modificaciones de color en cada palabra
de código. Cuando en cada palabra de código en cada uno de los
canales de color tiene lugar al menos una modificación de color, no
pueden propagarse los errores de reconocimiento a lo largo de varias
palabras de código.
Puede mejorarse aún más la precisión de
reconocimiento reuniendo también las modificaciones de color en
palabras de código de un código codificado de manera redundante.
Mediante estas exigencias a la codificación de la muestra de
colores, pueden detectarse de manera fiable errores en la
decodificación.
La decodificación se realiza entonces
detectándose en la unidad evaluadora los puntos de inflexión de la
señal de medida detectada mediante la determinación de los máximos
de la primera derivada. Los puntos de inflexión así detectados,
que pueden ser asociados a modificaciones de color potenciales, se
comprueban a continuación en relación con los criterios que cumple
la codificación de los códigos de color. Entre otros, se comprueba
entonces la magnitud de la variación de color y la correlación de
las variaciones de color entre los canales. Otro criterio es por
ejemplo que los puntos de inflexión con pendiente positiva y
negativa deben presentarse en cada caso por pares y que las
modificaciones de color deben corresponderse con las palabras de
código de las modificaciones de color.
Finalmente, se comprueban las modificaciones de
color en cuanto a coincidencia con las palabras de código
codificadas de la modificación de color y se determinan los datos de
proyección asociados a un punto de la imagen captada. A partir de
los datos de proyección y de las coordenadas del correspondiente
punto en la imagen captada por la cámara, pueden calcularse
entonces las coordenadas tridimensionales de objeto de la superficie
del objeto a captar.
A continuación se describirá la invención en
detalle en base al dibujo junto. Se muestra en:
Figura 1 una vista de un dispositivo
para la captación tridimensional de datos de objeto;
Figuras 2a a c diagramas que visualizan la
reducción de datos; y
Figuras 3a y b representaciones de líneas de
perfil reconstruidas de un objeto captado.
En la figura 1 se representa un dispositivo 1
que sirve para determinar las coordenadas tridimensionales de
objeto de una superficie 2 de un objeto a captar 3.
El dispositivo 1 presenta un proyector 4, que
proyecta una muestra de colores 5 sobre la superficie 2 del objeto
3 a captar. En el caso representado en la figura 1, la muestra de
colores 5 está compuesta por una serie de bandas de colores
situadas una al lado de otra. Puede imaginarse también utilizar una
muestra de colores bidimensional en lugar de la muestra de colores
monodimensional 5 representada en la figura 1.
En el ejemplo de ejecución representado en la
figura 1 puede asociarse a cada punto P de la superficie 2 del
objeto 3 un plano de proyección g. Mediante la muestra de colores 5
quedan codificados así los datos de proyección. La muestra de
colores 5 proyectada sobre la superficie 2 del objeto 3 es
transformada mediante una cámara 6 en una imagen 7, en la que el
punto P sobre la superficie 2 se transforma en el punto P'. Con una
disposición conocida del proyector 4 y de la cámara 6, en
particular cuando se conoce la longitud de un tramo de base 8,
pueden calcularse mediante triangulación las coordenadas espaciales
tridimensionales del punto P sobre la superficie 2. La reducción de
datos necesaria para ello, así como la evaluación, son realizadas
por una unidad de evaluación 9.
Para posibilitar la determinación de las
coordenadas espaciales tridimensionales del punto P sobre la
superficie 2 a partir de una única imagen 7, incluso cuando la
superficie 2 del objeto 3 tiene saltos de profundidad y
ocultaciones, la muestra de colores 5 está constituida de tal manera
que la codificación de los planos de proyección g es lo más robusta
posible frente a errores. Además, mediante la codificación pueden
eliminarse errores que provienen del coloreado del objeto.
En los ejemplos de ejecución representados en la
figura 1 se describen los colores de la muestra de colores 5
mediante el modelo RGB
(Red-Green-Blue). Las modificaciones
de los valores de colores de la muestra de colores 5 se realizan
mediante modificaciones de los valores de colores en los distintos
canales de colores R, G y B.
La muestra de colores debe entonces responder a
las siguientes condiciones:
- -
- En cada canal de color se utilizan solamente dos valores de color. En particular se utiliza en cada canal de color en cada caso el valor mínimo y el valor máximo, con lo que en el modelo RGB se dispone en total de ocho colores.
- -
- Dentro de una palabra de código presenta cada canal de color al menos una modificación de color. Esta condición posibilita la decodificación de las palabras de código individuales.
- -
- Los elementos de color que se encuentran uno junto a otro se diferencian en al menos dos canales de color. Esta condición sirve especialmente para asegurar la tolerancia a errores, en particular frente a saltos de profundidad.
- -
- Las distintas palabras de código de la muestra de colores 5 presentan una distancia Hamming no trivial. También esta condición sirve para aumentar la tolerancia frente a errores al decodificar los planos de proyección g.
- -
- También las modificaciones de color se reúnen en palabras de código con una distancia Hamming no trivial.
A continuación citaremos un ejemplo para la
muestra de colores 5 que cumple con las cinco condiciones antes
citadas. Esta muestra de colores 5 se refiere al modelo RGB con un
canal de color R rojo, un canal de color G verde y un canal de
color B azul. Puesto que los valores de color en cada canal de color
sólo pueden asumir en cada caso el valor mínimo y el valor máximo,
se dispone en total de ocho colores de mezcla, a los que se asignan
en cada caso los siguientes valores:
negro 0
azul 1
verde 2
cian 3
rojo 4
magenta 5
amarillo 6
blanco 7.
Para las palabras de código de los valores de
color se eligió una longitud de cuatro bandas de color, solapándose
palabras de código contiguas en cada caso con tres bandas de
color.
También a las modificaciones de color se les
asignaron valores numéricos. Puesto que en cada uno de los tres
canales de color permanece igual el valor del color o bien puede
descender o aumentar, resultan en total 27 modificaciones de color
distintas del color de mezcla, a las que en cada caso se ha asignado
un número entre 0 y 26. La longitud de las palabras de código
asignadas a las modificaciones de color se eligió igual a tres
modificaciones de color, solapándose palabras de código contiguas en
cada caso con dos modificaciones de color.
Mediante un algoritmo de búsqueda se encontró la
siguiente secuencia de números, que describe un ejemplo de
ejecución de la muestra de color 5 que cumple con las cinco
condiciones antes citadas:
124307056121741427034212721653417161436160530635271707241630525074714706503560363474350617
2524253607
2524253607
En el ejemplo de ejecución indicado la primera
palabra de código está compuesta por las cifras 1243, la segunda
palabra de código por las cifras 2340 y la tercera palabra de código
por las cifras 4307. El ejemplo de ejecución mostrado tiene una
codificación muy robusta.
Las figuras 2a a c visualizan la reducción de
datos. En la figura 2a se representa una señal de color inicial 10.
Debido a la superficie 2 del objeto 3, se deforma la señal de color
inicial 10 para formar una señal de medida 11. Para una mayor
claridad indiquemos que la señal de color 10 y la señal de medida 11
se han representado en una dirección perpendicular a las bandas de
color de la muestra de colores 5 representada en la figura 1.
Para la reducción de datos se calcula en una
primera etapa una primera derivada 12 de la señal de medida 11. A
continuación se determinan los puntos de inflexión de la señal de
medida 11, calculándose los valores extremos 13 de la primera
derivada 12. La posición exacta se calcula mediante ajuste directo
de una parábola o de un polinomio cúbico al entorno de un valor
extremo de la derivada 12. Los valores extremos que de ello resultan
se reúnen, en función de su distribución espacial, en valores
extremos de la señal de color mezclada, que se extienden por varios
canales de color. La posición de los valores extremos que se
extienden por varios canales de color se calcula formando un valor
medio ponderado de la posición de los valores extremos en los
distintos canales de color. Los factores que sirven para la
ponderación se forman sobre la base de la calidad de la curva de
ajuste y de la relación señal/ruido de la señal de medida 11. Los
valores extremos individuales a los que no corresponde ningún otro
valor extremo en otro canal de color, se ignoran a continuación.
Puesto que la probabilidad de que se presente un valor extremo sin
la correspondiente transición de color es muy baja, éste es un
elemento efectivo para eliminar distorsiones debidas al ruido. En la
figura 2c puede eliminarse por ejemplo el valor extremo 14
erróneamente detectado.
En otra etapa del procedimiento se unen los
valores extremos idénticos para formar líneas de perfil 15. La
figura 3a muestra el resultado para el caso de que los valores
extremos no se sometan a ningún otro filtrado. Puesto que no
obstante las modificaciones de color están estructuradas con ayuda
de palabras de código que se solapan, que presentan entre sí una
distancia Hamming no trivial, pueden eliminarse por filtrado también
aquellos valores extremos que se asientan en los bordes de color en
el coloreado de la superficie 2. El resultado se representa en la
figura 3b. Por lo tanto, el procedimiento aquí descrito está
perfectamente en condiciones de identificar las líneas de perfil 15
efectivas de las modificaciones de color que se basan en
modificaciones de color en la muestra de color 5.
A continuación pueden asignarse a los puntos P
de la imagen 7 mediante la codificación de color los planos del
proyector g. Los datos de objeto tridimensionales de la superficie
resultan entonces mediante una triangulación, cuando la disposición
de la cámara 6 y del proyector 4 son conocidas.
El procedimiento aquí conocido puede utilizarse
también para determinar el coloreado del objeto 3 a captar. El
valor de color de un punto P en la imagen 7 puede describirse
mediante la siguiente fórmula:
R_{c} = r_{c}
\cdot \int_{\Delta\lambda}s_{c}(\lambda)\cdot
I_{p}(\lambda)d\lambda+r_{c}\cdot\int_{\Delta\lambda}s_{c}(\lambda)\cdot
I_{A}(\lambda)d\lambda
siendo s_{c}(\lambda) la
sensibilidad espectral de un elemento sensor en la cámara 6,
r_{c}(\lambda) la reflectividad espectral de las
correspondientes superficies 2, I_{p}(\lambda) la
intensidad espectral de la radiación emitida por el proyector 4 e
I_{a}(\lambda) la intensidad de la iluminación de fondo.
Puesto que I_{p}(\lambda) se conoce para cada punto P
tras realizar el procedimiento antes descrito, y bajo la suposición
de que R_{c}(\lambda) es esencialmente igual a una
constante r_{c}, puede calcularse a partir del valor R_{c}
medido en cada canal de color la constante r_{c}, cuando puede
despreciarse la influencia de la iluminación de fondo. A partir de
las reflectividades r_{c} de los 3 canales de color puede
deducirse entonces el coloreado de la superficie 2. Teniendo en
cuenta los valores contiguos de r_{c}, es finalmente posible
captar al menos la parte de baja frecuencia del coloreado del objeto
3.
El procedimiento se ha probado ya
exhaustivamente. Se utilizó una muestra de colores en la que 104
bandas formaban una codificación inequívoca. Para la muestra de
colores 5 proyectada se utilizaron no obstante en total 156 planos
de luz, ya que la geometría de la configuración del ensayo permite
una repetición parcial de la muestra codificada.
Para el proyector 4 se utilizó tanto un
proyector de diapositivas sencillo como también un proyector LCD.
Un proyector de diapositivas sencillo, cuya óptica está optimizada
para una gran profundidad de foco, es al respecto la mejor
alternativa bajo consideraciones económicas.
Para la cámara se utilizaron distintas cámaras
RGB con una resolución de 574 x 768 píxeles. Para suprimir una
superposición entre los distintos canales de color en lo posible, es
esencial una buena separación de colores en la cámara 6. Para la
unidad de evaluación 9 se utilizó un computador con un procesador
Pentium IV de 2,4 GHz. Con ello se pudieron captar y analizar,
incluso sin optimización de la velocidad del código del programa,
hasta 15 imágenes por segundo. El procedimiento es por lo tanto
perfectamente adecuado para el reconocimiento de gestos.
El procedimiento funciona de manera fiable
cuando la variación del coloreado de la superficie 2 y de la
iluminación de fondo no se corresponde en cuanto a frecuencia y
amplitud con el coloreado de la muestra de colores 5. Esto puede
observarse también en las figuras 3a y 3b, en las que los dedos 16
se apoyan sobre una base 17 de varios colores.
Una superficie debe ser de un tamaño de al menos
8 x 8 píxeles en la figura 7 para que pueda asignársele una
coordenada tridimensional, ya que para la evaluación son necesarias
al menos dos bandas de colores completas, teniendo una banda de
colores en la cámara 6 al menos 3 píxeles de anchura.
Puesto que en la ejecución del procedimiento
aquí descrito es suficiente una única toma de la superficie 2 para
determinar coordenadas tridimensionales de la superficie 2, el
procedimiento aquí descrito y el dispositivo aquí descrito son
adecuados en particular para la captación de objetos que se mueven o
deforman. El procedimiento aquí descrito es adecuado por lo tanto
en particular en el marco de la biometría para el reconocimiento de
rostros y el reconocimiento de gestos. En particular es adecuado el
procedimiento aquí descrito sobre todo para la identificación y
autentificación de personas.
\newpage
Otros campos de aplicación se refieren al
aseguramiento de la calidad de productos, la medición de objetos en
el diseño, por ejemplo para el reequipamiento, para reparaciones o
para la ampliación de máquinas o instalaciones existentes o el
modelado tridimensional de objetos en el sector de multimedia y de
los juegos.
Señalemos que pueden utilizarse también otros
modelos de color, por ejemplo del modelo YUV
(luminancia/cromi-
nancia) para la descripción de la muestra de colores 5.
nancia) para la descripción de la muestra de colores 5.
Señalemos además que bajo el concepto cámara se
entiende cualquier sistema de reproducción de imagen.
Claims (16)
1. Procedimiento para la captación
tridimensional de objetos (3), en el que
- -
- sobre el objeto a captar (3) se proyecta una muestra de colores (5) con datos de proyección conocidos,
- -
- la muestra de colores (5) proyectada sobre el objeto (3) se capta mediante una cámara (6) y
- -
- la imagen (7) generada por la cámara (6) se procesa en una unidad de evaluación (9) para generar coordenadas de objeto tridimensionales correspondientes al objeto (3),
caracterizado porque los
datos de proyección se codifican en la muestra de colores (5) con
ayuda de un código
redundante.
2. Procedimiento según la reivindicación 1,
en el que se estructuran valores de color en la
muestra de colores (5) con ayuda de palabras de código de un código
redundante y en el que los datos de proyección de un punto (P) de la
imagen (7) se identifican con ayuda de una búsqueda realizada por
la unidad de evaluación (9) para encontrar las palabras de
codificación que codifican los valores de colores.
3. Procedimiento según la reivindicación 1 ó
2,
en el que las modificaciones de color de la
muestra de colores (5) se estructuran con ayuda de palabras de
código de un código redundante y en el que durante la evaluación en
la unidad de evaluación (9) se permiten a las palabras de códigos
las modificaciones de color correspondientes como modificaciones de
color válidas.
4. Procedimiento según la reivindicación 2 ó
3,
en el que se utilizan palabras de código con una
distancia Hamming no trivial.
5. Procedimiento según una de las
reivindicaciones 2 a 4,
en el que las palabras de código se disponen
solapándose.
6. Procedimiento según una de las
reivindicaciones 1 a 5,
en el que los valores de color varían en cada
canal de color entre dos valores.
7. Procedimiento según la reivindicación 6,
en el que los valores de color varían en cada
canal de color entre un valor mínimo y un valor máximo.
8. Procedimiento según una de las
reivindicaciones 1 a 7,
en el que los valores de color se modifican
conjuntamente en al menos dos canales y en el que se admiten las
modificaciones de color que se presentan conjuntamente en al menos
dos canales de color durante la evaluación en la unidad de
evaluación (9) como variaciones de color válidas.
9. Procedimiento según una de las
reivindicaciones 1 a 8,
en el que en cada canal de color se realiza
dentro de cada palabra de código al menos una modificación de
color.
10. Procedimiento según una de las
reivindicaciones 1 a 9,
en el que en la unidad de evaluación (9) se
determinan las posiciones de modificaciones de color en cada canal
de color con ayuda de valores extremos de una primera derivada (12)
de una señal de medida (11).
11. Procedimiento según una de las
reivindicaciones 1 a 10,
en el que la muestra de colores (5) se configura
con forma de bandas y en el que durante la evaluación en la unidad
de evaluación (9) se unen las variaciones de color que se
corresponden entre sí para formar líneas de perfiles (15).
12. Procedimiento según una de las
reivindicaciones 1 a 11,
en el que se realiza una única toma de la imagen
(7) para determinar las coordenadas tridimensionales de la
superficie (2) del objeto (3).
13. Procedimiento según una de las
reivindicaciones 1 a 12,
en el que mediante la evaluación del color de
la muestra de colores (5) captado en la imagen (7) y del color
proyectado inicialmente en la muestra de colores (5), se
reconstruye un coloreado de la superficie (2) del objeto (3).
14. Dispositivo para la identificación
tridimensional de objetos con un proyector (4) para la proyección de
una muestra de colores (5) sobre una superficie (2) de un objeto a
captar (3) y con una cámara (6) para captar una imagen (7) de la
muestra de colores (5) proyectada sobre la superficie (2), así como
con una unidad de evaluación (9) para evaluar la imagen (7),
caracterizado porque las muestras de
colores (5) que puede proyectar el proyector (4) y la unidad
evaluación (9) están diseñadas para la realización del
procedimiento según una de las reivindicaciones 1 a 13.
15. Utilización del procedimiento según una de
las reivindicaciones 1 a 13 o del dispositivo según la
reivindicación 14 para el reconocimiento de rostros de
personas.
16. Utilización del procedimiento según una de
las reivindicaciones 1 a 13 o del dispositivo según la
reivindicación 14 para la identificación de gestos de personas.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE10232690 | 2002-07-18 | ||
| DE10232690A DE10232690A1 (de) | 2002-07-18 | 2002-07-18 | Verfahren und Vorrichtung zur dreidimensionalen Erfassung von Objekten sowie Verwendung der Vorrichtung und des Verfahrens |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2286468T3 true ES2286468T3 (es) | 2007-12-01 |
Family
ID=30128161
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES03764905T Expired - Lifetime ES2286468T3 (es) | 2002-07-18 | 2003-07-17 | Procedimiento y dispositivo para la captacion tridimensional de objetos asi como utilizacion del dispositivo y del procedimiento. |
Country Status (10)
| Country | Link |
|---|---|
| US (1) | US7388678B2 (es) |
| EP (1) | EP1523654B1 (es) |
| JP (1) | JP4988155B2 (es) |
| CN (1) | CN1302258C (es) |
| AT (1) | ATE366404T1 (es) |
| AU (1) | AU2003250787B2 (es) |
| DE (2) | DE10232690A1 (es) |
| DK (1) | DK1523654T3 (es) |
| ES (1) | ES2286468T3 (es) |
| WO (1) | WO2004010076A1 (es) |
Families Citing this family (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE10335829A1 (de) | 2003-08-05 | 2005-03-10 | Siemens Ag | Verfahren zur Bestimmung der Achsgeometrie und Sensor zu dessen Durchführung |
| IL157877A0 (en) * | 2003-09-11 | 2004-03-28 | Imagine It S Happening Ltd | Color edge based 3d scanner |
| DE102004008904A1 (de) * | 2004-02-24 | 2005-09-08 | Siemens Ag | Vorrichtung und Verfahren zur Bestimmung von Raumkoordinaten eines Objekts |
| US8477154B2 (en) * | 2006-03-20 | 2013-07-02 | Siemens Energy, Inc. | Method and system for interactive virtual inspection of modeled objects |
| US8244025B2 (en) * | 2006-03-20 | 2012-08-14 | Siemens Energy, Inc. | Method of coalescing information about inspected objects |
| US7689003B2 (en) * | 2006-03-20 | 2010-03-30 | Siemens Energy, Inc. | Combined 2D and 3D nondestructive examination |
| DE102006037778B4 (de) * | 2006-08-11 | 2011-02-10 | Siemens Ag | Anordnung und Verfahren zur Bewegungskompensation von Patienten während Eingriffen |
| CN101627280B (zh) | 2006-11-21 | 2013-09-25 | 曼蒂斯影像有限公司 | 三维几何建模和三维视频内容创建 |
| US8090194B2 (en) | 2006-11-21 | 2012-01-03 | Mantis Vision Ltd. | 3D geometric modeling and motion capture using both single and dual imaging |
| US20080156619A1 (en) | 2006-12-01 | 2008-07-03 | Mehul Patel | Range finder |
| CN101349551B (zh) * | 2007-07-20 | 2012-08-29 | 通用电气公司 | 轮廓测定设备及操作方法 |
| CN101609326B (zh) * | 2008-06-20 | 2012-09-19 | 鸿富锦精密工业(深圳)有限公司 | 加减速控制装置及加减速控制方法 |
| CA2771727C (en) | 2009-11-04 | 2013-01-08 | Technologies Numetrix Inc. | Device and method for obtaining three-dimensional object surface data |
| WO2012033109A1 (en) | 2010-09-08 | 2012-03-15 | Canon Kabushiki Kaisha | Method and apparatus for 3d-measurement by detecting a predetermined pattern |
| WO2012074505A1 (en) * | 2010-11-29 | 2012-06-07 | Hewlett-Packard Development Company, L.P. | System and method for creating a three-dimensional image file |
| WO2012133926A2 (en) * | 2011-04-01 | 2012-10-04 | Nikon Corporation | Profile measuring apparatus, method for measuring profile, and method for manufacturing structure |
| DE102011077564B4 (de) | 2011-06-15 | 2016-08-25 | Sirona Dental Systems Gmbh | Verfahren zur optischen dreidimensionalen Vermessung eines dentalen Objekts |
| DE102011123029B3 (de) | 2011-06-15 | 2021-09-02 | Sirona Dental Systems Gmbh | Verfahren zur optischen dreidimensionalen Vermessung eines dentalen Objekts |
| US9188433B2 (en) | 2012-05-24 | 2015-11-17 | Qualcomm Incorporated | Code in affine-invariant spatial mask |
| DE102013200898A1 (de) | 2013-01-21 | 2014-07-24 | Siemens Aktiengesellschaft | Endoskop, insbesondere für die minimal-invasive Chirurgie |
| US9860520B2 (en) * | 2013-07-23 | 2018-01-02 | Sirona Dental Systems Gmbh | Method, system, apparatus, and computer program for 3D acquisition and caries detection |
| US10068338B2 (en) * | 2015-03-12 | 2018-09-04 | Qualcomm Incorporated | Active sensing spatial resolution improvement through multiple receivers and code reuse |
| DE102015205187A1 (de) * | 2015-03-23 | 2016-09-29 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zur Projektion von Linienmustersequenzen |
| US9846943B2 (en) | 2015-08-31 | 2017-12-19 | Qualcomm Incorporated | Code domain power control for structured light |
| US10012496B2 (en) * | 2015-10-29 | 2018-07-03 | Canon Kabushiki Kaisha | Multispectral binary coded projection using multiple projectors |
| DE102018100439A1 (de) | 2018-01-10 | 2019-07-11 | Kulzer Gmbh | Virtuelle 3D-Darstellung des Mundraums |
| CN110763150B (zh) * | 2018-07-26 | 2021-05-25 | 王东 | 一种面部轮廓测量方法 |
| ES2937257T3 (es) * | 2018-07-27 | 2023-03-27 | Fraunhofer Ges Forschung | Equipo y procedimiento para crear y vigilar un área de seguridad en un espacio de trabajo |
| EP3879226B1 (en) | 2018-11-08 | 2023-01-04 | Chengdu Pin Tai Ding Feng Business Administration | Three-dimensional measurement device |
Family Cites Families (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2627047B1 (fr) * | 1988-02-09 | 1990-07-27 | Vision 3D | Procede de numerisation de la surface d'un objet tridimensionnel et appareil de releve en vue de sa mise en oeuvre |
| DE19638727A1 (de) | 1996-09-12 | 1998-03-19 | Ruedger Dipl Ing Rubbert | Verfahren zur Erhöhung der Signifikanz der dreidimensionalen Vermessung von Objekten |
| US5912644A (en) * | 1997-08-05 | 1999-06-15 | Wang; James J. M. | Spread spectrum position determination, ranging and communication system |
| US6341016B1 (en) * | 1999-08-06 | 2002-01-22 | Michael Malione | Method and apparatus for measuring three-dimensional shape of object |
| DE19963333A1 (de) * | 1999-12-27 | 2001-07-12 | Siemens Ag | Verfahren zur Ermittlung von dreidimensionalen Oberflächenkoordinaten |
| US7092014B1 (en) * | 2000-06-28 | 2006-08-15 | Microsoft Corporation | Scene capturing and view rendering based on a longitudinally aligned camera array |
| DE10335829A1 (de) * | 2003-08-05 | 2005-03-10 | Siemens Ag | Verfahren zur Bestimmung der Achsgeometrie und Sensor zu dessen Durchführung |
| US20050068544A1 (en) * | 2003-09-25 | 2005-03-31 | Gunter Doemens | Panoramic scanner |
-
2002
- 2002-07-18 DE DE10232690A patent/DE10232690A1/de not_active Ceased
-
2003
- 2003-07-17 DE DE50307617T patent/DE50307617D1/de not_active Expired - Lifetime
- 2003-07-17 AT AT03764905T patent/ATE366404T1/de not_active IP Right Cessation
- 2003-07-17 DK DK03764905T patent/DK1523654T3/da active
- 2003-07-17 ES ES03764905T patent/ES2286468T3/es not_active Expired - Lifetime
- 2003-07-17 US US10/521,605 patent/US7388678B2/en not_active Expired - Lifetime
- 2003-07-17 EP EP03764905A patent/EP1523654B1/de not_active Expired - Lifetime
- 2003-07-17 AU AU2003250787A patent/AU2003250787B2/en not_active Expired
- 2003-07-17 JP JP2004522130A patent/JP4988155B2/ja not_active Expired - Lifetime
- 2003-07-17 CN CNB038168723A patent/CN1302258C/zh not_active Expired - Lifetime
- 2003-07-17 WO PCT/DE2003/002410 patent/WO2004010076A1/de not_active Ceased
Also Published As
| Publication number | Publication date |
|---|---|
| DE50307617D1 (de) | 2007-08-16 |
| EP1523654A1 (de) | 2005-04-20 |
| CN1302258C (zh) | 2007-02-28 |
| AU2003250787B2 (en) | 2008-10-02 |
| CN1668890A (zh) | 2005-09-14 |
| JP2005538347A (ja) | 2005-12-15 |
| JP4988155B2 (ja) | 2012-08-01 |
| WO2004010076A1 (de) | 2004-01-29 |
| AU2003250787A1 (en) | 2004-02-09 |
| ATE366404T1 (de) | 2007-07-15 |
| US20060098212A1 (en) | 2006-05-11 |
| EP1523654B1 (de) | 2007-07-04 |
| DK1523654T3 (da) | 2007-10-29 |
| US7388678B2 (en) | 2008-06-17 |
| DE10232690A1 (de) | 2004-02-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2286468T3 (es) | Procedimiento y dispositivo para la captacion tridimensional de objetos asi como utilizacion del dispositivo y del procedimiento. | |
| US10235584B2 (en) | System for object authenticity detection including a reference image acquisition module and a user module and methods therefor | |
| CN102878950B (zh) | 用于三维轮廓测量的系统和方法 | |
| US20150103358A1 (en) | System and method for non-contact measurement of 3d geometry | |
| CN101627280B (zh) | 三维几何建模和三维视频内容创建 | |
| US7039220B2 (en) | Methods and apparatus for the dimensional measurement of livestock using a single camera | |
| US9074868B2 (en) | Automated borescope measurement tip accuracy test | |
| US9239274B2 (en) | Evaluation of the relief of a tire surface by active stereovision | |
| US20140002610A1 (en) | Real-time 3d shape measurement system | |
| ES2316413T3 (es) | Procedimiento para el reconocimiento de desviaciones de la forma superficial de una forma predeterminada. | |
| US20090040532A1 (en) | Three-dimensional shape measuring method and apparatus for the same | |
| JP2002191058A (ja) | 3次元画像取得装置および3次元画像取得方法 | |
| TWI642896B (zh) | 利用光學感測器之耐磨液壓/氣動活塞位置感測裝置及方法 | |
| JP2014505855A (ja) | シーン内の奥行き値を測定する方法 | |
| CN102576408A (zh) | 多路复用的生物计量成像和双成像器生物计量传感器 | |
| WO2017033178A1 (en) | System and method for object authenticity detection | |
| US9068904B2 (en) | System and method for non-contact metrology of surfaces | |
| CN106461379B (zh) | 借助彩色条带图案对检测对象表面的深度确定 | |
| US20150098092A1 (en) | Device and Method For the Simultaneous Three-Dimensional Measurement of Surfaces With Several Wavelengths | |
| TW201337211A (zh) | 形狀反射器及表面輪廓映射 | |
| Benveniste et al. | A color invariant for line stripe-based range scanners | |
| ES2505330B2 (es) | Procedimiento para la estimación automática de los componentes de la producción de un racimo de vid mediante visión artificial | |
| TWI532974B (zh) | 利用條紋編碼量測物體形貌的方法 | |
| Muhr et al. | A triangulation method for 3D-measurement of specular surfaces | |
| US8036423B2 (en) | Contrast-based technique to reduce artifacts in wavelength-encoded images |