ES2340462T3 - Robot con sistema de sensor para determinar datos de medicion tridimensional. - Google Patents
Robot con sistema de sensor para determinar datos de medicion tridimensional. Download PDFInfo
- Publication number
- ES2340462T3 ES2340462T3 ES00117126T ES00117126T ES2340462T3 ES 2340462 T3 ES2340462 T3 ES 2340462T3 ES 00117126 T ES00117126 T ES 00117126T ES 00117126 T ES00117126 T ES 00117126T ES 2340462 T3 ES2340462 T3 ES 2340462T3
- Authority
- ES
- Spain
- Prior art keywords
- robot
- sensor
- data
- image data
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 25
- 230000004044 response Effects 0.000 claims abstract description 13
- 230000005055 memory storage Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 12
- 238000004519 manufacturing process Methods 0.000 description 9
- 238000012937 correction Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011960 computer-aided design Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000135 prohibitive effect Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Manipulator (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Abstract
Sistema de sensor basado en un robot, para determinar datos de medición tridimensional de la superficie de un objeto (12), que comprende: un robot (24) con un brazo de robot (22); un controlador (38) para provocar que dicho brazo (22) del robot se desplace con respecto a la superficie del objeto (12); un sensor sin contacto (20) dispuesto sobre dicho brazo (22) del robot para recoger datos de imagen representativos de una parte de la superficie del objeto (12); un dispositivo (80) indicador de posición para indicar datos de posición representativos de la posición de dicho sensor sin contacto (20); un generador (44) de señal de temporización para generar periódicamente y transmitir una señal de sincronización, estando dicho dispositivo indicador de posición (80) conectado eléctricamente con dicho generador de señal de temporización (44) y configurado para informar de datos de posición como respuesta a cada una de dichas señales de sincronización, y estando conectado eléctricamente dicho sensor sin contacto (20) con dicho generador de señal de temporización (44) y configurado para recoger datos de imagen como respuesta a cada una de dichas señales de sincronización; un procesador de datos (40) adaptado para recuperar datos de imagen de dicho sensor sin contacto (20) y datos de posición de dicho dispositivo indicador de posición (80), y siendo operativo para sincronizar los datos de imagen con los datos de posición, generando de esta manera una representación tridimensional del objeto (12); estando configurado dicho dispositivo indicador de posición (80) en forma de sistema de medición fotogramétrico que emite una descarga de luz casi monocromática, detecta puntos de luz resultantes del reflejo de la descarga de luz desde marcadores retrorreflectantes situados sobre la superficie del sensor sin contacto (20) y detecta la posición de los marcadores.
Description
Robot con sistema de sensor para determinar
datos de medición tridimensional.
La presente invención se refiere de manera
general a sistemas de sensores sin contacto, y más particularmente a
un sistema de sensores basado en un robot y un procedimiento para
determinar datos de una medición tridimensional de un objeto.
La exigencia de una calidad más elevada ha
llevado a los fabricantes de artículos fabricados en masa, tales
como vehículos automóviles, a utilizar técnicas de fabricación
automatizadas que no eran conocidas cuando se empezó a concebir la
fabricación en líneas de montaje. En la actualidad, se utilizan
equipos robóticos para montar, soldar, terminar, medir y probar
artículos fabricados con un grado mucho más elevado de calidad y
precisión de lo que ha sido posible hasta el momento. Las técnicas
de fabricación con ayuda de ordenador permiten a los diseñadores
conceptualizar gráficamente y diseñar un nuevo producto en una
estación de trabajo computerizada y el procedimiento de fabricación
automatizado asegura que el diseño se lleva a cabo fielmente y de
manera precisa, de acuerdo con la especificación. La visión mediante
máquina es una parte clave del entorno de fabricación actual. Se
utilizan sistemas de visión por máquina con sistemas robóticos y
sistemas de diseño ayudados por ordenador para asegurar que se
consigue la calidad al coste práctico más bajo.
En un entorno de fabricación típico pueden
existir múltiples sensores sin contacto, tales como sensores
ópticos, dispuestos en diferentes lugares predeterminados dentro de
la fabricación de la pieza a trabajar, medición o comprobación. A
efectos de obtener datos de medición tridimensionales utilizando un
sensor bidimensional sin contacto, el sensor tiene que ser
desplazado con respecto a la pieza a trabajar. Por lo tanto, es
importante saber la situación exacta y la orientación del elemento
móvil (tanto el sensor como la pieza a trabajar) cada vez que el
sensor obtiene datos de imagen de la pieza a trabajar. Esto tiende a
ser bastante simple para dispositivos de movimiento precisos (por
ejemplo, un CMM), puesto que la posición indicada refleja la
posición real del dispositivo. El controlador de movimiento de un
dispositivo de movimiento preciso puede comprender varios factores
de compensación que son aplicados al control de movimiento para
asegurar que la posición controlada se adapta a la posición real
del dispositivo. No obstante, los elevados costes asociados con
estos tipos de dispositivos de movimiento son prohibitivos en su
utilización en un entorno de fabricación típico.
Como alternativa a estos dispositivos de
movimiento más onerosos, es posible utilizar un robot industrial
convencional como dispositivo de movimiento en un sistema de
medición. Al fijar el sensor sin contacto al robot industrial, el
robot puede ser utilizado para desplazar el sensor con respecto a la
pieza a trabajar. Los robots industriales son apropiados para
llevar a cabo secuencias de movimientos complejas que están
adaptadas a la pieza a trabajar. Además, se tiene a disposición
muchas herramientas estándar industriales que permiten llevar a
cabo la programación de las secuencias de movimiento fuera de la
línea ("off line") siendo descargadas a continuación en el
controlador del robot.
El problema con un sistema sensor basado en un
robot es que el robot industrial convencional no es básicamente un
dispositivo con movimiento preciso. Los controladores tipo robot
utilizan en general modelos cinemáticos ideales cuando dan
instrucciones de movimiento del robot. Las características físicas
del brazo del robot varían ligeramente con respecto al modelo ideal
y, por lo tato, el movimiento real del brazo del robot varía
ligeramente con respecto a la secuencia de movimiento controlada.
Además, estas características físicas tienen probabilidades de
cambiar al ser sometido el robot al desgaste y cambios térmicos. La
mayor parte de controladores por robot no están dotados de medios
adicionales para traducir y/o corregir la posición indicada en una
posición real del brazo del robot. Como resultado de ello, los
robots industriales convencionales no han sido utilizados hasta el
momento en sistemas con sensores sin contacto y otras aplicaciones
de estaciones de trabajo de fabricación altamente precisas.
El documento WO 97/05449 da a conocer un aparato
de exploración que comprende un brazo con múltiples articulaciones
con una unidad de control del brazo y una sonda. La unidad de
control comprende una unidad de proceso acoplada a un ordenador. El
objeto es escaneado para captar datos de una serie de puntos de la
superficie del objeto, de manera que el escáner puede captar datos
simultáneamente de dos o más puntos. La señal generada es luz
estructurada en forma de banda o área procedente de fuentes de
iluminación, tales como un diodo láser o bulbos que posibilitan la
determinación de datos para la posición y color de la
superficie.
Por el documento
US-A-4 575 304 se conoce un sistema
de robot para reconocer formas tridimensionales, que comprende un
sensor de luz de rejilla construido mediante un proyector de luz
destinado a proyectar luz para formar una rendija de luz sobre el
objeto a manipular y un sensor de imagen para detectar una imagen de
la forma ondulada de la sección de luz. El sensor de imagen está
montado en un elemento operativo del robot. La luz es escaneada y
el sensor de rendija de luz detecta datos de alcance en base a los
cuales se detecta la posición, postura, inclinación, etc. del
objeto de forma tridimensional, de manera que el robot puede
manipular el objeto.
Además, por el documento XP002079443,
"Modeling and Calibration of a Structured Light Scanner for 3D
Robot Vision", proceedings of the International Conference on
Robotics and Automation; Raleigh, 30 Marzo - 3 Abril, 1987,
Washington, IEEE COMP. SOC. PRESS, US, Vol. 2, 31 Marzo 1987
(31-03-1987), páginas
807-815 se conoce un escáner de luz estructurada
para una visión por robot 3D. El sistema utiliza una matriz de
transformación 4x3 que convierte puntos del plano de imagen en sus
correspondientes coordenadas 3D. El calibrado del escáner comprende
el cálculo del coeficiente de la matriz mostrando el sistema un
conjunto de líneas generado por bordes adecuados del objeto. Un
objeto trapecial plano conformado de manera tal que no hay dos
bordes de la superficie superior paralelos entre sí, es escaneado
para obtener un calibrado utilizando diferentes etapas de
calibración.
Teniendo en cuenta lo anterior, es un objetivo
de la invención dar a conocer un sistema de detección basado en
robot para determinar datos de medición tridimensionales para la
superficie de un objeto que permite una medición tridimensional muy
precisa de un objeto.
Este objetivo es conseguido por un sistema de
sensor basado en robot, según la reivindicación 1.
Otras realizaciones son el objeto de las
reivindicaciones dependientes.
El sistema de sensor comprende un robot que
tiene, como mínimo, un elemento móvil y un controlador del robot
para controlar el movimiento del elemento móvil con respecto a la
superficie de un objeto. Un sensor sin contacto es acoplado al
elemento móvil del robot para captar datos de imagen representativos
de la superficie del objeto. Un dispositivo indicador de posición
configurado en forma de sistema de medición fotogramétrico es
utilizado para indicar datos de medición significativos de la
posición del sensor sin contacto. Además, un generador de señal de
sincronización es utilizado para generar y transmitir una señal de
sincronización para cada uno de los sensores sin contacto y al
dispositivo indicador de posición, de manera que el sensor sin
contacto indica datos de imagen como respuesta a la señal de
sincronización y el dispositivo de indicación de posición indica
datos de posición como respuesta a la señal de sincronización.
El sistema sensor comprende además un sistema de
visión adaptado para recoger datos de imagen del sensor sin
contacto y datos de posición del dispositivo indicador de posición.
Al escanear el sensor sin contacto la superficie del objeto, existe
una latencia de tiempo entre el momento en el que el sensor genera
su láser hasta el momento en el que los datos de imagen procesados
son disponibles para el sistema de visión. En otras palabras, los
datos de imagen indicados por el sensor tienen un retraso de tiempo
por detrás de los datos de posición indicados por el dispositivo
indicador de posición. Por lo tanto, el sistema de visión debe ser
capaz de sincronizar los datos de imagen con los datos de posición.
Se utiliza un almacenamiento de memoria para almacenar datos de
posición, de manera que el sistema de visión pueda sincronizar los
datos de imagen con los datos de posición. De esta manera, el
sistema sensor basado en robot, según la presente invención, es
capaz de determinar de manera rápida y precisa datos de medición
tridimensional para el objeto.
Para mejor comprensión de la invención, sus
objetivos y ventajas, se puede hacer referencia a la siguiente
descripción y a los dibujos adjuntos.
La figura 1 es una vista en perspectiva de una
estación de detección basada en robot, incorporada en una línea de
montaje de puertas de vehículo, de acuerdo con la presente
invención;
La figura 2 muestra los componentes principales
de un sistema de sensor basado en robot que no corresponden a la
presente invención;
La figura 3 es un diagrama de bloques que
muestra un sistema de sensor basado en robot que no corresponde a la
presente invención;
La figura 4 muestra la configuración de la
memoria utilizada para sincronizar los datos de imagen con los datos
de posición en el sistema sensor basado en robot de la presente
invención; y
La figura 5 es un diagrama de bloques que
muestra un sistema sensor basado en robot, de acuerdo con la
presente invención.
Un sistema sensor basado en robot, a título de
ejemplo, del tipo habitualmente utilizado en líneas de montaje de
vehículos u otras aplicaciones de automoción se muestra en la figura
1. Un sistema de sensor (10) basado en un robot es utilizado
frecuentemente para asegurar que cada uno de los componentes de una
carrocería de vehículo es montado dentro de las tolerancia
predefinidas. Por ejemplo, el sistema de sensor (10) basado en un
robot puede medir la puerta de la carrocería de un vehículo (12). Si
bien la invención no está limitada a aplicaciones de automoción,
una utilización a título de ejemplo para el sistema de sensor basado
en robot (10) sería una fábrica de montaje de automóviles.
Un sensor único sin contacto (20) está montado
sobre el brazo de robot (22) del robot (24). El sensor (20) de la
presente realización es un sensor de contorno que solamente es capaz
de mediciones bidimensionales (2D). Durante el funcionamiento, el
sensor (20) emite un modelo de luz estructurada plana. Al iluminar
la pieza se consigue un modelo de luz reflejada característico que
puede ser detectado por el sensor (20). El sensor de contorno puede
medir (mediante triangulación) en dos dimensiones un plano sobre la
pieza reflectante. Para más detalles con respecto a un sensor de
luz estructurada apropiado se puede hacer referencia a la patente
USA nº 4.645.348 de Dewar y otros transferida a la propietaria de la
presente invención.
Los cables de comunicación (28) conectan el
sensor (20) y el controlador del robot (24) a un ordenador (30) de
visión por máquina, que comprende una pantalla CRT (32) (tubo de
rayos catódicos). Se dispone opcionalmente una impresora (34) con un
ordenador típico de visión por máquina.
A efectos de generar una representación
tridimensional de la pieza a trabajar, el brazo (22) del robot es
móvil en una serie de posiciones para medir la periferia de la pieza
a trabajar (por ejemplo, una puerta). Como contraste al enfoque
estático que requiere que el sensor se pare para cada captación de
imagen, el sensor (20) puede captar datos de manera continua al
desplazarse el brazo del robot (22) sobre la superficie de una
pieza a trabajar. En otras palabras, se pueden captar datos de
medición tridimensional de la pieza a trabajar al "escanear" o
desplazar de manera continua el sensor de medición bidimensional con
respecto a la pieza a trabajar. Además, el sistema sensor (10) es
capaz también de indicar los datos de medición tridimensionales con
respecto a un marco de referencia predeterminado o sistema de
coordenadas asociado, por ejemplo, con la carrocería (12) del
vehículo a medir, o con respecto a un cuadro de referencia externo
asociado con la estación de detección.
La figura 2 muestra los componentes básicos
asociados con el sistema de sensor (10) basado en un robot. Un
sensor sin contacto (20) se ha fijado al extremo de un brazo de
robot (22) que a su vez está conectado a un controlador (38) del
robot. En su funcionamiento, el controlador (38) del robot funciona
controlando el movimiento del brazo del robot (22) con respecto a
la superficie de un objeto a detectar por el sistema, y el sensor
sin contacto (20) puede funcionar para captar datos de imagen
representativos de una parte de la superficie del objeto. Un
dispositivo indicador de posición (26) es utilizado para indicar
datos de posición representativos de la posición del sensor sin
contacto (20). El sensor sin contacto (20) y el dispositivo
indicador de posición (26) están por su parte eléctricamente
conectados a un sistema de visión (40) dispuesto en el ordenador
(30) de visión por máquina.
Tal como se describirá más adelante, la posición
del sensor (20) puede ser indicada directamente o indirectamente
por el dispositivo indicador de posición (26). En la forma directa,
la posición real del sensor (20) es indicada por un sistema de
fotogrametría al sistema de visión (40), mientras que en la forma
indirecta que no corresponde a la invención, la posición de un
sensor (20) es deducida de la posición del brazo (22) del robot que
es indicada (por ejemplo, por el controlador de robot) al sistema
de visión (40). Finalmente, el sistema de visión (40) sincroniza
los datos de imagen con los datos de posición determinando de esta
manera datos de medición tridimensionales para la pieza a
trabajar.
De manera más específica, el sistema de visión
(40) comprende un módulo de sincronización (42) y un generador de
señal de sincronización (44). Para sincronizar los datos de imagen
recibidos desde el sensor (20) con los datos de posición recibidos
desde el dispositivo de información de posición (26), el sistema de
visión (40) utiliza una señal de temporización o una señal de
retención de hardware que es generada por el generador de señal de
temporización (44). La señal de temporización es transmitida a
continuación simultáneamente al sensor (20) y al dispositivo
indicador de posición (26). Como respuesta a la señal de
temporización, el sensor (20) registra datos de imagen de la pieza
a trabajar y el dispositivo indicador de posición (26) registra
datos de posición actuales para el sensor sin contacto (20). Se
pueden solicitar entonces datos de imagen y datos de posición por
el sistema de visión (40) siendo suministrados al mismo. De esta
manera, el sistema de visión (40) capta los datos de medición
necesarios para construir una línea de contorno representativa de la
superficie de la pieza a trabajar. Se debe observar que el sistema
de visión no se basa en que el movimiento del sensor se encuentra a
una velocidad constante en relación con la pieza a trabajar. Por el
contrario, se prevé que la velocidad del sensor puede variar al
escanear la pieza a trabajar.
Un sistema de sensor que no corresponde a la
invención que utiliza el método indirecto para captar la posición
de datos es el mostrado en la figura 3. El método indirecto deduce
la posición del sensor a partir de la posición del brazo (22) del
robot. Para ello, los datos de posición son indicados por el
controlador (38) del robot al sistema de visión (40). No obstante,
tal como se ha descrito en lo anterior, la posición real del brazo
del robot varía desde los datos de posición controlados como
indicados por el controlador del robot (38). De este modo, el
sistema de visión (40) incorpora además un módulo de corrección
cinemática (50) que aplica un factor de corrección cinemática en
tiempo real a los datos de posición indicados que se han recibido
del controlador (38) del robot. En una realización preferente, el
sistema DynaCal Robot Cell Calibration System desarrollado por
Dynalog, Inc. of Bloomfield Hills, Michigan puede ser adaptado para
servir como módulo de corrección cinemática (50).
Los técnicos en la materia reconocerán
fácilmente que el módulo (50) de corrección cinemática incorpora un
procedimiento que determina desviaciones físicas entre el robot real
y su correspondiente modelo ideal. Estas desviaciones son
almacenadas como parámetros específicos del robot. En su
funcionamiento, el módulo (50) de corrección cinemática recibe los
datos de posición indicados del controlador (38) del robot. Dado que
el controlador (38) del robot no conoce las desviaciones físicas
del robot, los datos de posición indicados se basan en el modelo
ideal. El módulo (50) de corrección cinemática traduce los datos de
posición indicados en datos de posición real utilizando los
parámetros específicos del robot. A continuación, los datos de
posición real del brazo del robot son transformados en datos de
posición para el sensor. Los datos de posición del sensor son
facilitados a continuación al módulo de sincronización (42).
El sensor sin contacto (20) es preferentemente
un sensor sin contacto Tricam que es fabricado por Perceptron, Inc.
de Playmouth, Michigan. Mientras que la siguiente descripción es
facilitada con referencia al sensor sin contacto Tricam, se
comprenderá fácilmente que la explicación es aplicable a otros
sensores sin contacto. En el caso de un sensor Tricam, el generador
de señal de temporización (44) es un módulo de software que reside
en el circuito impreso que puede ser incorporado fácilmente en el
ordenador de visión por máquina (30). Además, el generador de señal
de sincronización (44) está asociado con el sensor (20), de manera
tal que la señal de recepción del hardware es generada
interiormente en el sensor (20). En su funcionamiento, el sensor
genera una señal de retención de hardware cada vez que capta un
dato de imagen. El sensor (20) está configurado además para
transmitir simultáneamente la señal de retención de hardware al
controlador (38) del robot. También se prevé que el sensor sin
contacto Tricam pueda soportar una entrada externa que permite el
inicio de la captación de imágenes por una señal de recepción de
hardware generada externamente con respecto al sensor (20). De este
modo, el generador (44) de señal de temporización puede ser asociado
a algún dispositivo de cálculo externo (por ejemplo, el controlador
del robot).
A efectos de "escanear" el sensor con
respecto a la pieza a trabajar, se deben captar datos a la velocidad
que permite el movimiento continuo del sensor. En una modalidad de
funcionamiento continuo, el sensor sin contacto Tricam queda
limitado por la velocidad de imágenes de su cámara que funciona a
una frecuencia de 30 Hz. No obstante, existe una latencia de tiempo
desde el momento en que el sensor inicia su láser al momento en el
que las imágenes procesadas son puestas a disposición del sistema de
visión (40). Como resultado, los datos de imagen indicados por el
sensor (20) tienen un retardo de tiempo por detrás de los datos de
posición indicados por el controlador (38) del robot en dos tiempos
de imagen (por ejemplo, 2/30 segundos). De acuerdo con ello, los
datos de imagen recibidos del sensor (20) requieren sincronización
con los datos de posición recibidos desde el controlador (38) del
robot.
La presente invención sincroniza los datos de
imagen con los datos de posición, tal como se ha mostrado en la
figura 4. Un espacio de memoria interno del sistema de visión es
utilizado para almacenar y procesar datos de posición recibidos
desde el controlador (38) del robot. El espacio de memoria queda
definido además en un espacio de memoria de imagen para almacenar
datos de imagen y, como mínimo, tres espacios de memoria de
posición para almacenar datos de posición. Una primera señal de
temporización provoca que el sistema de visión recupere los datos
de posición (t_{0}) del controlador del robot que son almacenados
a su vez en un primer espacio de memoria (62). Como respuesta a una
segunda señal de temporización, el sistema de visión copia los
datos de posición (t_{0}) en el primer espacio de memoria (62) en
un segundo espacio de memoria (64) y a continuación recupera los
siguientes datos de posición disponibles (t_{1}) en el primer
espacio de memoria (62). De manera similar, una tercera señal de
temporización provoca que los datos de posición (t_{0}) del
segundo espacio de memoria (64) sean copiados en un tercer espacio
de memoria (66), que los datos de posición (t_{1}) del primer
espacio de memoria (62) se han copiado en el segundo espacio de
memoria (64) y que nuevos datos de posición (t_{2}) sean
recuperados en el primer espacio de memoria (62). En otras palabras,
el sistema de visión (40) es capaz de almacenar los tres juegos más
recientes de datos de posición recibidos del controlador (38) del
robot.
En este momento, los datos de imagen (t_{0})
que corresponden a los datos de posición inicial (t_{0}) están
disponibles desde el sensor hacia el sistema de visión. Como
respuesta a la tercera señal de temporización, estos datos de
imagen son leídos en el espacio de memoria de imagen (68) por el
sistema de visión. Al relacionar estos datos de imagen con los
datos de posición almacenados en el tercer espacio de memoria (66),
el sistema de visión es capaz de construir de manera precisa datos
de medición de la pieza a trabajar. Para cada señal de temporización
adicional, este procedimiento de sincronización es repetido por el
sistema de visión.
Tal como se ha explicado anteriormente, el
funcionamiento del sensor sin contacto Tricam varía ligeramente de
la descripción que se ha facilitado en relación con la figura 4. En
el caso del sensor Tricam, una señal de temporización indica al
sistema de visión que recupere los datos de imagen actuales del
sensor y que recupere los datos de posición actuales del
controlador del robot. El primer caso de esta señal de temporización
no tiene lugar hasta después de que se han procesado los datos del
primer juego de imágenes y éstos se han puesto a disposición del
sistema de visión. Dado que existen dos marcos de tiempo entre el
inicio del láser y esta primera señal de temporización, los datos
de posición disponibles no se corresponden con los datos de imagen
disponibles. En otras palabras, los datos de posición que se han
recuperado como respuesta a la primera señal de temporización,
corresponden a los datos de imagen recuperados como respuesta a la
tercera señal de temporización. Como resultado, los dos primeros
conjuntos de datos de imagen son descartados y la sincronización
empieza con el tercer conjunto de datos de imagen.
En vez de determinar la posición del sensor a
partir de la información proporcionada por el controlador del robot,
de acuerdo con la invención se prevé que la posición del sensor sea
indicada directamente al sistema de visión (40) por un sistema de
medición independiente, tal como se ha mostrado en la figura 5.
De acuerdo con la presente invención, una o
varias cámaras fotogramétricas son posicionadas en puntos ventajosos
en la estación de detección. Cada una de las cámaras
fotogramétricas funciona bajo técnicas fotogramétricas
convencionales. Es decir, la cámara fotogramétrica emite un haz de
luz casi monocromática y su cámara detecta la reflexión de esta
luz. Por ejemplo, se pueden colocar marcadores retroreflectantes
sobre la superficie del sensor en contacto (20). Cuando los
marcadores son iluminados por luz ultrarroja desde una cámara, la
luz reflejada por los marcadores en forma de puntos de luz
brillantes, regresando a una unidad de captación de movimiento
dentro de la cámara. Los puntos de luz son analizados de manera que
su posición y dimensiones son calculadas por la cámara determinando
de esta manera la posición de los marcadores. Se prevé que la cámara
fotogramétrica pueda funcionar utilizando otras técnicas operativas
convencionales, incluyendo, sin que ello sea limitativo, la
captación de objetivos luminosos.
En cualquier caso, siempre que el sensor se
encuentra dentro del campo de visión de las cámaras fotogramétricas,
el sistema de fotogrametría proporcionará una determinación precisa
de la posición del sensor. De esta manera, la posición real del
sensor es indicada al sistema de visión (40). Se debe observar que,
dado que el sistema de fotogrametría (80) informa sobre la posición
real del sensor, de acuerdo con la invención no hay necesidad del
módulo de corrección cinemática. El sistema de sensor (10) basado en
el robot puede funcionar de otro modo, tal como se ha explicado
anteriormente con respecto a las figuras 1-4.
De lo anterior se apreciará que la presente
invención da a conocer un avance significativo en la técnica de los
sistemas de sensores basados en un robot. La invención determina con
precisión, datos de medición tridimensional para una pieza a
trabajar mediante la utilización de un proceso de escaneado
sincronizado y sin necesidad de dispositivos sensores de posición
onerosos, tales como los CMM.
Si bien la invención ha sido descrita en esta
forma actualmente preferente, se comprenderá que la invención es
capaz de modificaciones sin salir del campo de las reivindicaciones
adjuntas.
Claims (9)
1. Sistema de sensor basado en un robot, para
determinar datos de medición tridimensional de la superficie de un
objeto (12), que comprende:
un robot (24) con un brazo de robot (22);
un controlador (38) para provocar que dicho
brazo (22) del robot se desplace con respecto a la superficie del
objeto (12);
un sensor sin contacto (20) dispuesto sobre
dicho brazo (22) del robot para recoger datos de imagen
representativos de una parte de la superficie del objeto (12);
un dispositivo (80) indicador de posición para
indicar datos de posición representativos de la posición de dicho
sensor sin contacto (20);
un generador (44) de señal de temporización para
generar periódicamente y transmitir una señal de sincronización,
estando dicho dispositivo indicador de posición (80) conectado
eléctricamente con dicho generador de señal de temporización (44) y
configurado para informar de datos de posición como respuesta a cada
una de dichas señales de sincronización, y estando conectado
eléctricamente dicho sensor sin contacto (20) con dicho generador de
señal de temporización (44) y configurado para recoger datos de
imagen como respuesta a cada una de dichas señales de
sincronización;
un procesador de datos (40) adaptado para
recuperar datos de imagen de dicho sensor sin contacto (20) y datos
de posición de dicho dispositivo indicador de posición (80), y
siendo operativo para sincronizar los datos de imagen con los datos
de posición, generando de esta manera una representación
tridimensional del objeto (12);
estando configurado dicho dispositivo indicador
de posición (80) en forma de sistema de medición fotogramétrico que
emite una descarga de luz casi monocromática, detecta puntos de luz
resultantes del reflejo de la descarga de luz desde marcadores
retrorreflectantes situados sobre la superficie del sensor sin
contacto (20) y detecta la posición de los marcadores.
\vskip1.000000\baselineskip
2. Sistema sensor basado en un robot, según la
reivindicación 1, en el que dicho brazo (22) del robot explora la
superficie del objeto (12), de manera que los datos de imagen
indicados por dicho sensor sin contacto (20) tienen un retardo de
tiempo por detrás de los datos de posición indicados por dicho
dispositivo (80) indicador de posición.
3. Sistema sensor basado en un robot, según la
reivindicación 1 ó 2, que comprende además un espacio de
almacenamiento en memoria (62, 64, 66) para almacenar datos de
posición desde dicho dispositivo (80) indicador de posición, estando
dicho procesador de datos (40) conectado a dicho espacio de
almacenamiento en memoria (62, 64, 66) para sincronizar los datos de
imagen con los datos de posición correspondientes.
4. Sistema sensor basado en un robot, según
cualquiera de las reivindicaciones 1 a 3, en el que dicho sensor sin
contacto (20) es un sensor de luz estructural bidimensional
(20).
5. Sistema sensor basado en un robot, según
cualquiera de las reivindicaciones 1 a 4, en el que dicho sensor sin
contacto (20) emite luz estructurada en una configuración plana
predefinida y teniendo un receptor óptico para recibir luz reflejada
emitida por dicho sensor sin contacto (20), de manera que la luz
reflejada es indicativa de la superficie del objeto (12).
6. Sistema sensor basado en un robot, según
cualquiera de las reivindicaciones 1 a 5, en el que:
dicho controlador está configurado como
controlador (38) del robot para controlar los movimientos de dicho
brazo (22) del robot; estando conectado dicho generador de señal de
temporización (44) eléctricamente con dicho controlador (38) del
robot para generar y transmitir periódicamente dicha señal de
sincronización, indicando dicho controlador (38) del robot un
conjunto de dichos datos de posición como respuesta a cada una de
dichas señales de sincronización, generando de esta manera una serie
de conjuntos de datos de posición;
siendo dicho sensor sin contacto (20) sensible a
cada una de dichas señales de sincronización para la captación de un
conjunto de datos de imagen representativos de una parte de dicho
objetivo (12), generando de esta manera una correspondiente
pluralidad de conjuntos de datos de imagen representativos de una
pluralidad de partes del objeto (12); y
estando configurado dicho procesador de datos
como sistema de visión (40) adaptado para recuperar dicha serie de
datos de imagen de dicho sensor sin contacto (20) y sincronizar cada
conjunto de datos de imagen con un correspondiente conjunto de datos
de posición, generando de esta manera una representación
tridimensional del objeto (12).
\vskip1.000000\baselineskip
7. Sistema sensor basado en un robot, según la
reivindicación 6, que comprende además un sistema de transformación
de coordenadas para transformar cada conjunto de datos de posición
en un marco de referencia del sensor, de manera que el marco de
referencia del sensor está asociado con dicho sensor sin contacto
(20).
8. Sistema sensor basado en un robot, según la
reivindicación 6 ó 7, en el que dicho controlador (38) del robot
está configurado para indicar datos de posición representativos de
la posición de dicho brazo (22) del robot.
9. Sistema sensor basado en un robot, según la
reivindicación 6 ó 7, en el que dicho sistema (80) de medición
fotogramétrica tiene un campo de observación de calibración y es
posicionable en un punto de ventaja, de manera que dicho sensor sin
contacto (20) se encuentra dentro del campo de calibración, y en el
que dicho sistema de medición fotogramétrico (80) se conecta
eléctricamente a dicho generador de señal de temporización (44) e
indica un conjunto de datos de posición como respuesta a cada una de
dichas señales de sincronización, generando de esta manera una serie
de conjuntos de datos de posición.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US372871 | 1999-08-12 | ||
| US09/372,871 US6166811A (en) | 1999-08-12 | 1999-08-12 | Robot-based gauging system for determining three-dimensional measurement data |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2340462T3 true ES2340462T3 (es) | 2010-06-04 |
Family
ID=23469960
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES00117126T Expired - Lifetime ES2340462T3 (es) | 1999-08-12 | 2000-08-10 | Robot con sistema de sensor para determinar datos de medicion tridimensional. |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US6166811A (es) |
| EP (1) | EP1076221B1 (es) |
| CA (1) | CA2315508C (es) |
| DE (1) | DE60044170D1 (es) |
| ES (1) | ES2340462T3 (es) |
Families Citing this family (105)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6705526B1 (en) | 1995-12-18 | 2004-03-16 | Metrologic Instruments, Inc. | Automated method of and system for dimensioning objects transported through a work environment using contour tracing, vertice detection, corner point detection, and corner point reduction methods on two-dimensional range data maps captured by an amplitude modulated laser scanning beam |
| US20020014533A1 (en) | 1995-12-18 | 2002-02-07 | Xiaxun Zhu | Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps |
| US6662083B2 (en) * | 2000-10-31 | 2003-12-09 | Progressive Tool & Industries Co. | Multiple robotic workstation with multiple fixtures |
| US6567162B2 (en) | 2001-05-31 | 2003-05-20 | The Regents Of The University Of Michigan | Reconfigurable apparatus and method for inspection during a manufacturing process |
| DE10164944B4 (de) * | 2001-10-15 | 2013-03-28 | Hermann, Dr.-Ing. Tropf | Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen |
| US7344082B2 (en) * | 2002-01-02 | 2008-03-18 | Metrologic Instruments, Inc. | Automated method of and system for dimensioning objects over a conveyor belt structure by applying contouring tracing, vertice detection, corner point detection, and corner point reduction methods to two-dimensional range data maps of the space above the conveyor belt captured by an amplitude modulated laser scanning beam |
| FR2846413B1 (fr) * | 2002-10-24 | 2005-03-11 | Luc Vergnaud | Dispositif de numerisation sans contact d'un objet en 3 dimensions |
| US7024032B2 (en) * | 2002-10-31 | 2006-04-04 | Perceptron, Inc. | Method for assessing fit and alignment of a manufactured part |
| US20030137673A1 (en) * | 2002-12-13 | 2003-07-24 | Cox Cary B. | Systems, and methods of use, employing distorted patterns to ascertain the shape of a surface, for road or runway profiling, or as input to control pro-active suspension systems |
| DE10311247B8 (de) * | 2003-03-14 | 2008-05-08 | Inos Automationssoftware Gmbh | Portable Einrichtung zum Erfassen einer Lage und von Abmessungen eines Objekts |
| GB2417090A (en) * | 2003-04-28 | 2006-02-15 | Stephen James Crampton | CMM arm with exoskeleton |
| DE10335472A1 (de) * | 2003-08-02 | 2005-02-17 | E. Zoller GmbH & Co. KG Einstell- und Messgeräte | Mess- und/oder Einstellgerät |
| EP1524494A1 (en) * | 2003-10-17 | 2005-04-20 | inos Automationssoftware GmbH | Method for calibrating a camera-laser-unit in respect to a calibration-object |
| DE10354078B4 (de) * | 2003-11-19 | 2008-09-04 | Daimler Ag | Spannvorrichtung für Werkstücke zur dreidimensionalen optischen Oberflächenmessung |
| US7693325B2 (en) | 2004-01-14 | 2010-04-06 | Hexagon Metrology, Inc. | Transprojection of geometry data |
| DE102004024378B4 (de) * | 2004-05-17 | 2009-05-20 | Kuka Roboter Gmbh | Verfahren zur robotergestützten Vermessung von Objekten |
| US7289216B2 (en) * | 2004-07-19 | 2007-10-30 | Compagnie Plastic Omnium | Station for inspecting the painting of motor vehicle parts |
| FR2873205B1 (fr) | 2004-07-19 | 2007-05-18 | Plastic Omnium Cie | Procede et poste de controle de peinture de piece de carrosserie de vehicules automobiles |
| FR2873204B1 (fr) * | 2004-07-19 | 2007-04-27 | Plastic Omnium Cie | Appareil de mesure pour le controle de pieces de carrosserie peintes, muni d'un dispositif anti-deterioration |
| DE102004046752B4 (de) * | 2004-09-24 | 2010-10-21 | GOM, Gesellschaft für optische Meßtechnik mit beschränkter Haftung | Verfahren zur dreidimensionalen Erfassung von Messobjekten |
| NZ581496A (en) | 2005-03-16 | 2010-02-26 | Lucasfilm Entertainment Compan | Three-dimensional motion capture using orientation of virtual structures |
| US8111904B2 (en) | 2005-10-07 | 2012-02-07 | Cognex Technology And Investment Corp. | Methods and apparatus for practical 3D vision system |
| EP2092269B1 (en) * | 2006-11-20 | 2019-05-01 | Hexagon Technology Center GmbH | Coordinate measurement machine with improved joint |
| US8130225B2 (en) * | 2007-01-16 | 2012-03-06 | Lucasfilm Entertainment Company Ltd. | Using animation libraries for object identification |
| US8199152B2 (en) | 2007-01-16 | 2012-06-12 | Lucasfilm Entertainment Company Ltd. | Combining multiple session content for animation libraries |
| US8542236B2 (en) * | 2007-01-16 | 2013-09-24 | Lucasfilm Entertainment Company Ltd. | Generating animation libraries |
| US8126260B2 (en) * | 2007-05-29 | 2012-02-28 | Cognex Corporation | System and method for locating a three-dimensional object using machine vision |
| US7743660B2 (en) * | 2007-06-15 | 2010-06-29 | The Boeing Company | System and method for automated inspection of large-scale part |
| US8224121B2 (en) * | 2007-06-15 | 2012-07-17 | The Boeing Company | System and method for assembling substantially distortion-free images |
| US8144153B1 (en) | 2007-11-20 | 2012-03-27 | Lucasfilm Entertainment Company Ltd. | Model production for animation libraries |
| US7779548B2 (en) | 2008-03-28 | 2010-08-24 | Hexagon Metrology, Inc. | Coordinate measuring machine with rotatable grip |
| US8122610B2 (en) * | 2008-03-28 | 2012-02-28 | Hexagon Metrology, Inc. | Systems and methods for improved coordination acquisition member comprising calibration information |
| US20090326712A1 (en) * | 2008-06-26 | 2009-12-31 | Utica Enterprises, Inc. | Calibration for vehicle body assembly |
| US8923602B2 (en) * | 2008-07-22 | 2014-12-30 | Comau, Inc. | Automated guidance and recognition system and method of the same |
| DE102008063680A1 (de) * | 2008-10-10 | 2010-04-15 | Abb Ag | Verfahren zum Einlernen (Teachen) eines Industrieroboters sowie ein entsprechend ausgestatteter Industrieroboter |
| US7908757B2 (en) | 2008-10-16 | 2011-03-22 | Hexagon Metrology, Inc. | Articulating measuring arm with laser scanner |
| US9734419B1 (en) | 2008-12-30 | 2017-08-15 | Cognex Corporation | System and method for validating camera calibration in a vision system |
| US9142024B2 (en) | 2008-12-31 | 2015-09-22 | Lucasfilm Entertainment Company Ltd. | Visual and physical motion sensing for three-dimensional motion capture |
| US9551575B2 (en) | 2009-03-25 | 2017-01-24 | Faro Technologies, Inc. | Laser scanner having a multi-color light source and real-time color receiver |
| DE102009015920B4 (de) | 2009-03-25 | 2014-11-20 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
| US9533418B2 (en) | 2009-05-29 | 2017-01-03 | Cognex Corporation | Methods and apparatus for practical 3D vision system |
| EP2449353B1 (en) * | 2009-06-30 | 2019-09-11 | Hexagon Technology Center GmbH | Articulated arm system with vibration detection and corresponding operating method |
| US8112896B2 (en) | 2009-11-06 | 2012-02-14 | Hexagon Metrology Ab | Articulated arm |
| US9113023B2 (en) | 2009-11-20 | 2015-08-18 | Faro Technologies, Inc. | Three-dimensional scanner with spectroscopic energy detector |
| US9210288B2 (en) | 2009-11-20 | 2015-12-08 | Faro Technologies, Inc. | Three-dimensional scanner with dichroic beam splitters to capture a variety of signals |
| DE102009057101A1 (de) | 2009-11-20 | 2011-05-26 | Faro Technologies, Inc., Lake Mary | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
| US9529083B2 (en) | 2009-11-20 | 2016-12-27 | Faro Technologies, Inc. | Three-dimensional scanner with enhanced spectroscopic energy detector |
| US20110213247A1 (en) * | 2010-01-08 | 2011-09-01 | Hexagon Metrology, Inc. | Articulated arm with imaging device |
| US8630314B2 (en) * | 2010-01-11 | 2014-01-14 | Faro Technologies, Inc. | Method and apparatus for synchronizing measurements taken by multiple metrology devices |
| US9163922B2 (en) | 2010-01-20 | 2015-10-20 | Faro Technologies, Inc. | Coordinate measurement machine with distance meter and camera to determine dimensions within camera images |
| US8677643B2 (en) | 2010-01-20 | 2014-03-25 | Faro Technologies, Inc. | Coordinate measurement machines with removable accessories |
| US9879976B2 (en) | 2010-01-20 | 2018-01-30 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features |
| US8615893B2 (en) | 2010-01-20 | 2013-12-31 | Faro Technologies, Inc. | Portable articulated arm coordinate measuring machine having integrated software controls |
| US8028432B2 (en) | 2010-01-20 | 2011-10-04 | Faro Technologies, Inc. | Mounting device for a coordinate measuring machine |
| US8533967B2 (en) * | 2010-01-20 | 2013-09-17 | Faro Technologies, Inc. | Coordinate measurement machines with removable accessories |
| US8875409B2 (en) | 2010-01-20 | 2014-11-04 | Faro Technologies, Inc. | Coordinate measurement machines with removable accessories |
| US9628775B2 (en) | 2010-01-20 | 2017-04-18 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
| US9607239B2 (en) | 2010-01-20 | 2017-03-28 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
| WO2011090888A2 (en) | 2010-01-20 | 2011-07-28 | Faro Technologies, Inc. | Coordinate measuring machine having an illuminated probe end and method of operation |
| US8898919B2 (en) | 2010-01-20 | 2014-12-02 | Faro Technologies, Inc. | Coordinate measurement machine with distance meter used to establish frame of reference |
| US8832954B2 (en) | 2010-01-20 | 2014-09-16 | Faro Technologies, Inc. | Coordinate measurement machines with removable accessories |
| USD643319S1 (en) | 2010-03-29 | 2011-08-16 | Hexagon Metrology Ab | Portable coordinate measurement machine |
| DE102010018979A1 (de) * | 2010-05-03 | 2011-11-03 | Steinbichler Optotechnik Gmbh | Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts |
| DE102010020925B4 (de) | 2010-05-10 | 2014-02-27 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung |
| US9393694B2 (en) | 2010-05-14 | 2016-07-19 | Cognex Corporation | System and method for robust calibration between a machine vision system and a robot |
| US8127458B1 (en) | 2010-08-31 | 2012-03-06 | Hexagon Metrology, Inc. | Mounting apparatus for articulated arm laser scanner |
| CN103003713B (zh) | 2010-09-08 | 2015-04-01 | 法罗技术股份有限公司 | 具有投影器的激光扫描器或激光跟踪器 |
| US9168654B2 (en) | 2010-11-16 | 2015-10-27 | Faro Technologies, Inc. | Coordinate measuring machines with dual layer arm |
| US9124873B2 (en) | 2010-12-08 | 2015-09-01 | Cognex Corporation | System and method for finding correspondence between cameras in a three-dimensional vision system |
| USD668656S1 (en) * | 2011-01-24 | 2012-10-09 | Datalogic ADC, Inc. | Tunnel scanner |
| US8948447B2 (en) | 2011-07-12 | 2015-02-03 | Lucasfilm Entertainment Companyy, Ltd. | Scale independent tracking pattern |
| WO2013074926A1 (en) | 2011-11-18 | 2013-05-23 | Lucasfilm Entertainment Company Ltd. | Path and speed based character control |
| US8763267B2 (en) | 2012-01-20 | 2014-07-01 | Hexagon Technology Center Gmbh | Locking counterbalance for a CMM |
| DE102012100609A1 (de) | 2012-01-25 | 2013-07-25 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
| US9069355B2 (en) | 2012-06-08 | 2015-06-30 | Hexagon Technology Center Gmbh | System and method for a wireless feature pack |
| US8997362B2 (en) | 2012-07-17 | 2015-04-07 | Faro Technologies, Inc. | Portable articulated arm coordinate measuring machine with optical communications bus |
| EP2705935A1 (en) | 2012-09-11 | 2014-03-12 | Hexagon Technology Center GmbH | Coordinate measuring machine |
| US9513107B2 (en) | 2012-10-05 | 2016-12-06 | Faro Technologies, Inc. | Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner |
| DE102012109481A1 (de) | 2012-10-05 | 2014-04-10 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
| US10067231B2 (en) | 2012-10-05 | 2018-09-04 | Faro Technologies, Inc. | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner |
| US9250214B2 (en) | 2013-03-12 | 2016-02-02 | Hexagon Metrology, Inc. | CMM with flaw detection system |
| WO2014182707A2 (en) * | 2013-05-06 | 2014-11-13 | Iphoton Solutions, Llc | Volume reconstruction of an object using a 3d sensor and robotic coordinates |
| JP6217343B2 (ja) * | 2013-11-26 | 2017-10-25 | セントラル硝子株式会社 | 湾曲板形状検査装置 |
| US9163921B2 (en) | 2013-12-18 | 2015-10-20 | Hexagon Metrology, Inc. | Ultra-portable articulated arm coordinate measurement machine |
| US9594250B2 (en) | 2013-12-18 | 2017-03-14 | Hexagon Metrology, Inc. | Ultra-portable coordinate measurement machine |
| US9759540B2 (en) | 2014-06-11 | 2017-09-12 | Hexagon Metrology, Inc. | Articulating CMM probe |
| US10656617B2 (en) | 2014-07-16 | 2020-05-19 | Faro Technologies, Inc. | Measurement device for machining center |
| ES2967886T3 (es) | 2014-09-19 | 2024-05-06 | Hexagon Metrology Inc | Máquina de medición por coordenadas portátil multimodo |
| PL3012695T3 (pl) | 2014-10-23 | 2018-03-30 | Comau S.P.A. | Układ do monitorowania i sterowania zakładem przemysłowym |
| CN105043315A (zh) * | 2015-04-30 | 2015-11-11 | 天津菲利科电子技术有限公司 | 非机械式斗轮机斗臂角度及斗轮相对位置检测系统 |
| DE102015122844A1 (de) | 2015-12-27 | 2017-06-29 | Faro Technologies, Inc. | 3D-Messvorrichtung mit Batteriepack |
| US10059478B2 (en) | 2016-06-02 | 2018-08-28 | Becton Dickinson Rowa Germany Gmbh | Method and device for dividing a blister strip |
| BR112019000728B1 (pt) | 2016-07-15 | 2023-03-28 | Fastbrick Ip Pty Ltd | Veículo que incorpora máquina de assentamento de tijolos |
| US10865578B2 (en) | 2016-07-15 | 2020-12-15 | Fastbrick Ip Pty Ltd | Boom for material transport |
| WO2019006511A1 (en) | 2017-07-05 | 2019-01-10 | Fastbrick Ip Pty Ltd | REAL-TIME POSITION TRACKING AND ORIENTATION DEVICE |
| CN111213098B (zh) | 2017-08-17 | 2024-03-15 | 快砖知识产权私人有限公司 | 用于交互系统的通信系统 |
| CN111226090B (zh) | 2017-08-17 | 2023-05-23 | 快砖知识产权私人有限公司 | 具有改进的横滚角测量的激光跟踪器 |
| US11401115B2 (en) | 2017-10-11 | 2022-08-02 | Fastbrick Ip Pty Ltd | Machine for conveying objects and multi-bay carousel for use therewith |
| JP7073785B2 (ja) * | 2018-03-05 | 2022-05-24 | オムロン株式会社 | 画像検査装置、画像検査方法及び画像検査プログラム |
| IT201800005091A1 (it) | 2018-05-04 | 2019-11-04 | "Procedimento per monitorare lo stato di funzionamento di una stazione di lavorazione, relativo sistema di monitoraggio e prodotto informatico" | |
| EP3823796A4 (en) | 2018-07-16 | 2022-04-27 | Fastbrick IP Pty Ltd | ACTIVE DAMPING SYSTEM |
| CN112703092A (zh) | 2018-07-16 | 2021-04-23 | 快砖知识产权私人有限公司 | 交互系统的备份跟踪 |
| WO2021212176A1 (en) | 2020-04-22 | 2021-10-28 | Fastbrick Ip Pty Ltd | Block transfer apparatus and improved clamping assembly for use therewith |
| AU2021304545B2 (en) | 2020-07-08 | 2025-12-04 | Fastbrick Ip Pty Ltd | Adhesive application system |
| CN114851246B (zh) * | 2022-04-19 | 2024-06-14 | 深圳市大族机器人有限公司 | 机器人性能测试系统与方法 |
Family Cites Families (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB1591922A (en) * | 1976-10-19 | 1981-07-01 | Matsushita Electric Industrial Co Ltd | Magnetic recording and reproducing system |
| US4254433A (en) * | 1979-06-25 | 1981-03-03 | General Motors Corporation | Visual motion tracking system |
| JPS58177295A (ja) | 1982-04-07 | 1983-10-17 | 株式会社日立製作所 | ロボット制御装置 |
| US4841460A (en) * | 1987-09-08 | 1989-06-20 | Perceptron, Inc. | Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system |
| US5142160A (en) * | 1990-08-31 | 1992-08-25 | Frank Storbeck | Method and device for determining the volume of an object on a flat background |
| AT396181B (de) * | 1990-12-10 | 1993-06-25 | Sprecher Energie Oesterreich | Einrichtung zum erfassen der masse eines gegebenenfalls bewegten gegenstandes |
| IS1666B (is) * | 1991-02-19 | 1997-11-14 | Marel Hf | Aðferð og búnaður til ákvörðunar rúmmáls, forms og þyngdar fisks eða annarra hluta |
| US5319443A (en) * | 1991-03-07 | 1994-06-07 | Fanuc Ltd | Detected position correcting method |
| US5400638A (en) * | 1992-01-14 | 1995-03-28 | Korea Institute Of Science And Technology | Calibration system for compensation of arm length variation of an industrial robot due to peripheral temperature change |
| GB2278678B (en) * | 1993-05-25 | 1996-10-16 | Toyota Motor Co Ltd | A chamber volume correcting method for a cylinder head of an engine |
| US5561526A (en) * | 1994-05-26 | 1996-10-01 | Lockheed Missiles & Space Company, Inc. | Three-dimensional measurement device and system |
| US5719678A (en) * | 1994-07-26 | 1998-02-17 | Intermec Corporation | Volumetric measurement of a parcel using a CCD line scanner and height sensor |
| DE69635858T2 (de) * | 1995-06-22 | 2006-11-30 | 3Dv Systems Ltd. | Telezentrische 3d kamera und zugehöriges verfahren |
| US5699161A (en) * | 1995-07-26 | 1997-12-16 | Psc, Inc. | Method and apparatus for measuring dimensions of objects on a conveyor |
| GB9515311D0 (en) | 1995-07-26 | 1995-09-20 | 3D Scanners Ltd | Stripe scanners and methods of scanning |
| US5822486A (en) * | 1995-11-02 | 1998-10-13 | General Scanning, Inc. | Scanned remote imaging method and system and method of determining optimum design characteristics of a filter for use therein |
| US5793900A (en) * | 1995-12-29 | 1998-08-11 | Stanford University | Generating categorical depth maps using passive defocus sensing |
| US6044170A (en) * | 1996-03-21 | 2000-03-28 | Real-Time Geometry Corporation | System and method for rapid shape digitizing and adaptive mesh generation |
| EP0851207B1 (en) * | 1996-12-31 | 2004-05-12 | DATALOGIC S.p.A. | Process and apparatus for measuring the volume of an object by means of a laser scanner and a CCD detector |
| AU9223298A (en) * | 1997-09-04 | 1999-03-22 | Dynalog, Inc. | Method for calibration of a robot inspection system |
| US5910845A (en) * | 1997-12-02 | 1999-06-08 | Brown; Thomas Mattingly | Peripheral viewing optical scanner for three dimensional surface measurement |
-
1999
- 1999-08-12 US US09/372,871 patent/US6166811A/en not_active Expired - Lifetime
-
2000
- 2000-08-07 CA CA002315508A patent/CA2315508C/en not_active Expired - Fee Related
- 2000-08-10 ES ES00117126T patent/ES2340462T3/es not_active Expired - Lifetime
- 2000-08-10 EP EP00117126A patent/EP1076221B1/en not_active Expired - Lifetime
- 2000-08-10 DE DE60044170T patent/DE60044170D1/de not_active Expired - Lifetime
Also Published As
| Publication number | Publication date |
|---|---|
| CA2315508C (en) | 2008-10-14 |
| EP1076221A2 (en) | 2001-02-14 |
| CA2315508A1 (en) | 2001-02-12 |
| EP1076221A3 (en) | 2003-03-26 |
| DE60044170D1 (de) | 2010-05-27 |
| US6166811A (en) | 2000-12-26 |
| EP1076221B1 (en) | 2010-04-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2340462T3 (es) | Robot con sistema de sensor para determinar datos de medicion tridimensional. | |
| US9482514B2 (en) | Diagnosing multipath interference and eliminating multipath interference in 3D scanners by directed probing | |
| US10119805B2 (en) | Three-dimensional coordinate scanner and method of operation | |
| US10089415B2 (en) | Three-dimensional coordinate scanner and method of operation | |
| USRE35816E (en) | Method and apparatus for three-dimensional non-contact shape sensing | |
| CA2370156C (en) | Method for optically detecting the shape of objects | |
| JP2014511480A (ja) | 対象の位置および移動を測定するシステム | |
| WO2014149702A1 (en) | Three-dimensional coordinate scanner and method of operation | |
| JP2004518123A (ja) | 外部座標系に対して非接触形状測定センサーを較正する方法並びに装置 | |
| EP1091186A2 (en) | Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system | |
| WO2001007866A1 (en) | System for scanning of the geometry of large objects | |
| ES2924330T3 (es) | Aparato y método para la verificación sin contacto de las dimensiones y/o forma de un cuerpo de forma compleja | |
| JP2025145428A (ja) | 自己位置推定装置及び自己位置推定方法 |