ES2340462T3 - Robot con sistema de sensor para determinar datos de medicion tridimensional. - Google Patents

Robot con sistema de sensor para determinar datos de medicion tridimensional. Download PDF

Info

Publication number
ES2340462T3
ES2340462T3 ES00117126T ES00117126T ES2340462T3 ES 2340462 T3 ES2340462 T3 ES 2340462T3 ES 00117126 T ES00117126 T ES 00117126T ES 00117126 T ES00117126 T ES 00117126T ES 2340462 T3 ES2340462 T3 ES 2340462T3
Authority
ES
Spain
Prior art keywords
robot
sensor
data
image data
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES00117126T
Other languages
English (en)
Inventor
William D. Long
Charles C. Kingston
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Perceptron Inc
Original Assignee
Perceptron Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Perceptron Inc filed Critical Perceptron Inc
Application granted granted Critical
Publication of ES2340462T3 publication Critical patent/ES2340462T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

Sistema de sensor basado en un robot, para determinar datos de medición tridimensional de la superficie de un objeto (12), que comprende: un robot (24) con un brazo de robot (22); un controlador (38) para provocar que dicho brazo (22) del robot se desplace con respecto a la superficie del objeto (12); un sensor sin contacto (20) dispuesto sobre dicho brazo (22) del robot para recoger datos de imagen representativos de una parte de la superficie del objeto (12); un dispositivo (80) indicador de posición para indicar datos de posición representativos de la posición de dicho sensor sin contacto (20); un generador (44) de señal de temporización para generar periódicamente y transmitir una señal de sincronización, estando dicho dispositivo indicador de posición (80) conectado eléctricamente con dicho generador de señal de temporización (44) y configurado para informar de datos de posición como respuesta a cada una de dichas señales de sincronización, y estando conectado eléctricamente dicho sensor sin contacto (20) con dicho generador de señal de temporización (44) y configurado para recoger datos de imagen como respuesta a cada una de dichas señales de sincronización; un procesador de datos (40) adaptado para recuperar datos de imagen de dicho sensor sin contacto (20) y datos de posición de dicho dispositivo indicador de posición (80), y siendo operativo para sincronizar los datos de imagen con los datos de posición, generando de esta manera una representación tridimensional del objeto (12); estando configurado dicho dispositivo indicador de posición (80) en forma de sistema de medición fotogramétrico que emite una descarga de luz casi monocromática, detecta puntos de luz resultantes del reflejo de la descarga de luz desde marcadores retrorreflectantes situados sobre la superficie del sensor sin contacto (20) y detecta la posición de los marcadores.

Description

Robot con sistema de sensor para determinar datos de medición tridimensional.
La presente invención se refiere de manera general a sistemas de sensores sin contacto, y más particularmente a un sistema de sensores basado en un robot y un procedimiento para determinar datos de una medición tridimensional de un objeto.
La exigencia de una calidad más elevada ha llevado a los fabricantes de artículos fabricados en masa, tales como vehículos automóviles, a utilizar técnicas de fabricación automatizadas que no eran conocidas cuando se empezó a concebir la fabricación en líneas de montaje. En la actualidad, se utilizan equipos robóticos para montar, soldar, terminar, medir y probar artículos fabricados con un grado mucho más elevado de calidad y precisión de lo que ha sido posible hasta el momento. Las técnicas de fabricación con ayuda de ordenador permiten a los diseñadores conceptualizar gráficamente y diseñar un nuevo producto en una estación de trabajo computerizada y el procedimiento de fabricación automatizado asegura que el diseño se lleva a cabo fielmente y de manera precisa, de acuerdo con la especificación. La visión mediante máquina es una parte clave del entorno de fabricación actual. Se utilizan sistemas de visión por máquina con sistemas robóticos y sistemas de diseño ayudados por ordenador para asegurar que se consigue la calidad al coste práctico más bajo.
En un entorno de fabricación típico pueden existir múltiples sensores sin contacto, tales como sensores ópticos, dispuestos en diferentes lugares predeterminados dentro de la fabricación de la pieza a trabajar, medición o comprobación. A efectos de obtener datos de medición tridimensionales utilizando un sensor bidimensional sin contacto, el sensor tiene que ser desplazado con respecto a la pieza a trabajar. Por lo tanto, es importante saber la situación exacta y la orientación del elemento móvil (tanto el sensor como la pieza a trabajar) cada vez que el sensor obtiene datos de imagen de la pieza a trabajar. Esto tiende a ser bastante simple para dispositivos de movimiento precisos (por ejemplo, un CMM), puesto que la posición indicada refleja la posición real del dispositivo. El controlador de movimiento de un dispositivo de movimiento preciso puede comprender varios factores de compensación que son aplicados al control de movimiento para asegurar que la posición controlada se adapta a la posición real del dispositivo. No obstante, los elevados costes asociados con estos tipos de dispositivos de movimiento son prohibitivos en su utilización en un entorno de fabricación típico.
Como alternativa a estos dispositivos de movimiento más onerosos, es posible utilizar un robot industrial convencional como dispositivo de movimiento en un sistema de medición. Al fijar el sensor sin contacto al robot industrial, el robot puede ser utilizado para desplazar el sensor con respecto a la pieza a trabajar. Los robots industriales son apropiados para llevar a cabo secuencias de movimientos complejas que están adaptadas a la pieza a trabajar. Además, se tiene a disposición muchas herramientas estándar industriales que permiten llevar a cabo la programación de las secuencias de movimiento fuera de la línea ("off line") siendo descargadas a continuación en el controlador del robot.
El problema con un sistema sensor basado en un robot es que el robot industrial convencional no es básicamente un dispositivo con movimiento preciso. Los controladores tipo robot utilizan en general modelos cinemáticos ideales cuando dan instrucciones de movimiento del robot. Las características físicas del brazo del robot varían ligeramente con respecto al modelo ideal y, por lo tato, el movimiento real del brazo del robot varía ligeramente con respecto a la secuencia de movimiento controlada. Además, estas características físicas tienen probabilidades de cambiar al ser sometido el robot al desgaste y cambios térmicos. La mayor parte de controladores por robot no están dotados de medios adicionales para traducir y/o corregir la posición indicada en una posición real del brazo del robot. Como resultado de ello, los robots industriales convencionales no han sido utilizados hasta el momento en sistemas con sensores sin contacto y otras aplicaciones de estaciones de trabajo de fabricación altamente precisas.
El documento WO 97/05449 da a conocer un aparato de exploración que comprende un brazo con múltiples articulaciones con una unidad de control del brazo y una sonda. La unidad de control comprende una unidad de proceso acoplada a un ordenador. El objeto es escaneado para captar datos de una serie de puntos de la superficie del objeto, de manera que el escáner puede captar datos simultáneamente de dos o más puntos. La señal generada es luz estructurada en forma de banda o área procedente de fuentes de iluminación, tales como un diodo láser o bulbos que posibilitan la determinación de datos para la posición y color de la superficie.
Por el documento US-A-4 575 304 se conoce un sistema de robot para reconocer formas tridimensionales, que comprende un sensor de luz de rejilla construido mediante un proyector de luz destinado a proyectar luz para formar una rendija de luz sobre el objeto a manipular y un sensor de imagen para detectar una imagen de la forma ondulada de la sección de luz. El sensor de imagen está montado en un elemento operativo del robot. La luz es escaneada y el sensor de rendija de luz detecta datos de alcance en base a los cuales se detecta la posición, postura, inclinación, etc. del objeto de forma tridimensional, de manera que el robot puede manipular el objeto.
Además, por el documento XP002079443, "Modeling and Calibration of a Structured Light Scanner for 3D Robot Vision", proceedings of the International Conference on Robotics and Automation; Raleigh, 30 Marzo - 3 Abril, 1987, Washington, IEEE COMP. SOC. PRESS, US, Vol. 2, 31 Marzo 1987 (31-03-1987), páginas 807-815 se conoce un escáner de luz estructurada para una visión por robot 3D. El sistema utiliza una matriz de transformación 4x3 que convierte puntos del plano de imagen en sus correspondientes coordenadas 3D. El calibrado del escáner comprende el cálculo del coeficiente de la matriz mostrando el sistema un conjunto de líneas generado por bordes adecuados del objeto. Un objeto trapecial plano conformado de manera tal que no hay dos bordes de la superficie superior paralelos entre sí, es escaneado para obtener un calibrado utilizando diferentes etapas de calibración.
Teniendo en cuenta lo anterior, es un objetivo de la invención dar a conocer un sistema de detección basado en robot para determinar datos de medición tridimensionales para la superficie de un objeto que permite una medición tridimensional muy precisa de un objeto.
Este objetivo es conseguido por un sistema de sensor basado en robot, según la reivindicación 1.
Otras realizaciones son el objeto de las reivindicaciones dependientes.
El sistema de sensor comprende un robot que tiene, como mínimo, un elemento móvil y un controlador del robot para controlar el movimiento del elemento móvil con respecto a la superficie de un objeto. Un sensor sin contacto es acoplado al elemento móvil del robot para captar datos de imagen representativos de la superficie del objeto. Un dispositivo indicador de posición configurado en forma de sistema de medición fotogramétrico es utilizado para indicar datos de medición significativos de la posición del sensor sin contacto. Además, un generador de señal de sincronización es utilizado para generar y transmitir una señal de sincronización para cada uno de los sensores sin contacto y al dispositivo indicador de posición, de manera que el sensor sin contacto indica datos de imagen como respuesta a la señal de sincronización y el dispositivo de indicación de posición indica datos de posición como respuesta a la señal de sincronización.
El sistema sensor comprende además un sistema de visión adaptado para recoger datos de imagen del sensor sin contacto y datos de posición del dispositivo indicador de posición. Al escanear el sensor sin contacto la superficie del objeto, existe una latencia de tiempo entre el momento en el que el sensor genera su láser hasta el momento en el que los datos de imagen procesados son disponibles para el sistema de visión. En otras palabras, los datos de imagen indicados por el sensor tienen un retraso de tiempo por detrás de los datos de posición indicados por el dispositivo indicador de posición. Por lo tanto, el sistema de visión debe ser capaz de sincronizar los datos de imagen con los datos de posición. Se utiliza un almacenamiento de memoria para almacenar datos de posición, de manera que el sistema de visión pueda sincronizar los datos de imagen con los datos de posición. De esta manera, el sistema sensor basado en robot, según la presente invención, es capaz de determinar de manera rápida y precisa datos de medición tridimensional para el objeto.
Para mejor comprensión de la invención, sus objetivos y ventajas, se puede hacer referencia a la siguiente descripción y a los dibujos adjuntos.
La figura 1 es una vista en perspectiva de una estación de detección basada en robot, incorporada en una línea de montaje de puertas de vehículo, de acuerdo con la presente invención;
La figura 2 muestra los componentes principales de un sistema de sensor basado en robot que no corresponden a la presente invención;
La figura 3 es un diagrama de bloques que muestra un sistema de sensor basado en robot que no corresponde a la presente invención;
La figura 4 muestra la configuración de la memoria utilizada para sincronizar los datos de imagen con los datos de posición en el sistema sensor basado en robot de la presente invención; y
La figura 5 es un diagrama de bloques que muestra un sistema sensor basado en robot, de acuerdo con la presente invención.
Un sistema sensor basado en robot, a título de ejemplo, del tipo habitualmente utilizado en líneas de montaje de vehículos u otras aplicaciones de automoción se muestra en la figura 1. Un sistema de sensor (10) basado en un robot es utilizado frecuentemente para asegurar que cada uno de los componentes de una carrocería de vehículo es montado dentro de las tolerancia predefinidas. Por ejemplo, el sistema de sensor (10) basado en un robot puede medir la puerta de la carrocería de un vehículo (12). Si bien la invención no está limitada a aplicaciones de automoción, una utilización a título de ejemplo para el sistema de sensor basado en robot (10) sería una fábrica de montaje de automóviles.
Un sensor único sin contacto (20) está montado sobre el brazo de robot (22) del robot (24). El sensor (20) de la presente realización es un sensor de contorno que solamente es capaz de mediciones bidimensionales (2D). Durante el funcionamiento, el sensor (20) emite un modelo de luz estructurada plana. Al iluminar la pieza se consigue un modelo de luz reflejada característico que puede ser detectado por el sensor (20). El sensor de contorno puede medir (mediante triangulación) en dos dimensiones un plano sobre la pieza reflectante. Para más detalles con respecto a un sensor de luz estructurada apropiado se puede hacer referencia a la patente USA nº 4.645.348 de Dewar y otros transferida a la propietaria de la presente invención.
Los cables de comunicación (28) conectan el sensor (20) y el controlador del robot (24) a un ordenador (30) de visión por máquina, que comprende una pantalla CRT (32) (tubo de rayos catódicos). Se dispone opcionalmente una impresora (34) con un ordenador típico de visión por máquina.
A efectos de generar una representación tridimensional de la pieza a trabajar, el brazo (22) del robot es móvil en una serie de posiciones para medir la periferia de la pieza a trabajar (por ejemplo, una puerta). Como contraste al enfoque estático que requiere que el sensor se pare para cada captación de imagen, el sensor (20) puede captar datos de manera continua al desplazarse el brazo del robot (22) sobre la superficie de una pieza a trabajar. En otras palabras, se pueden captar datos de medición tridimensional de la pieza a trabajar al "escanear" o desplazar de manera continua el sensor de medición bidimensional con respecto a la pieza a trabajar. Además, el sistema sensor (10) es capaz también de indicar los datos de medición tridimensionales con respecto a un marco de referencia predeterminado o sistema de coordenadas asociado, por ejemplo, con la carrocería (12) del vehículo a medir, o con respecto a un cuadro de referencia externo asociado con la estación de detección.
La figura 2 muestra los componentes básicos asociados con el sistema de sensor (10) basado en un robot. Un sensor sin contacto (20) se ha fijado al extremo de un brazo de robot (22) que a su vez está conectado a un controlador (38) del robot. En su funcionamiento, el controlador (38) del robot funciona controlando el movimiento del brazo del robot (22) con respecto a la superficie de un objeto a detectar por el sistema, y el sensor sin contacto (20) puede funcionar para captar datos de imagen representativos de una parte de la superficie del objeto. Un dispositivo indicador de posición (26) es utilizado para indicar datos de posición representativos de la posición del sensor sin contacto (20). El sensor sin contacto (20) y el dispositivo indicador de posición (26) están por su parte eléctricamente conectados a un sistema de visión (40) dispuesto en el ordenador (30) de visión por máquina.
Tal como se describirá más adelante, la posición del sensor (20) puede ser indicada directamente o indirectamente por el dispositivo indicador de posición (26). En la forma directa, la posición real del sensor (20) es indicada por un sistema de fotogrametría al sistema de visión (40), mientras que en la forma indirecta que no corresponde a la invención, la posición de un sensor (20) es deducida de la posición del brazo (22) del robot que es indicada (por ejemplo, por el controlador de robot) al sistema de visión (40). Finalmente, el sistema de visión (40) sincroniza los datos de imagen con los datos de posición determinando de esta manera datos de medición tridimensionales para la pieza a trabajar.
De manera más específica, el sistema de visión (40) comprende un módulo de sincronización (42) y un generador de señal de sincronización (44). Para sincronizar los datos de imagen recibidos desde el sensor (20) con los datos de posición recibidos desde el dispositivo de información de posición (26), el sistema de visión (40) utiliza una señal de temporización o una señal de retención de hardware que es generada por el generador de señal de temporización (44). La señal de temporización es transmitida a continuación simultáneamente al sensor (20) y al dispositivo indicador de posición (26). Como respuesta a la señal de temporización, el sensor (20) registra datos de imagen de la pieza a trabajar y el dispositivo indicador de posición (26) registra datos de posición actuales para el sensor sin contacto (20). Se pueden solicitar entonces datos de imagen y datos de posición por el sistema de visión (40) siendo suministrados al mismo. De esta manera, el sistema de visión (40) capta los datos de medición necesarios para construir una línea de contorno representativa de la superficie de la pieza a trabajar. Se debe observar que el sistema de visión no se basa en que el movimiento del sensor se encuentra a una velocidad constante en relación con la pieza a trabajar. Por el contrario, se prevé que la velocidad del sensor puede variar al escanear la pieza a trabajar.
Un sistema de sensor que no corresponde a la invención que utiliza el método indirecto para captar la posición de datos es el mostrado en la figura 3. El método indirecto deduce la posición del sensor a partir de la posición del brazo (22) del robot. Para ello, los datos de posición son indicados por el controlador (38) del robot al sistema de visión (40). No obstante, tal como se ha descrito en lo anterior, la posición real del brazo del robot varía desde los datos de posición controlados como indicados por el controlador del robot (38). De este modo, el sistema de visión (40) incorpora además un módulo de corrección cinemática (50) que aplica un factor de corrección cinemática en tiempo real a los datos de posición indicados que se han recibido del controlador (38) del robot. En una realización preferente, el sistema DynaCal Robot Cell Calibration System desarrollado por Dynalog, Inc. of Bloomfield Hills, Michigan puede ser adaptado para servir como módulo de corrección cinemática (50).
Los técnicos en la materia reconocerán fácilmente que el módulo (50) de corrección cinemática incorpora un procedimiento que determina desviaciones físicas entre el robot real y su correspondiente modelo ideal. Estas desviaciones son almacenadas como parámetros específicos del robot. En su funcionamiento, el módulo (50) de corrección cinemática recibe los datos de posición indicados del controlador (38) del robot. Dado que el controlador (38) del robot no conoce las desviaciones físicas del robot, los datos de posición indicados se basan en el modelo ideal. El módulo (50) de corrección cinemática traduce los datos de posición indicados en datos de posición real utilizando los parámetros específicos del robot. A continuación, los datos de posición real del brazo del robot son transformados en datos de posición para el sensor. Los datos de posición del sensor son facilitados a continuación al módulo de sincronización (42).
El sensor sin contacto (20) es preferentemente un sensor sin contacto Tricam que es fabricado por Perceptron, Inc. de Playmouth, Michigan. Mientras que la siguiente descripción es facilitada con referencia al sensor sin contacto Tricam, se comprenderá fácilmente que la explicación es aplicable a otros sensores sin contacto. En el caso de un sensor Tricam, el generador de señal de temporización (44) es un módulo de software que reside en el circuito impreso que puede ser incorporado fácilmente en el ordenador de visión por máquina (30). Además, el generador de señal de sincronización (44) está asociado con el sensor (20), de manera tal que la señal de recepción del hardware es generada interiormente en el sensor (20). En su funcionamiento, el sensor genera una señal de retención de hardware cada vez que capta un dato de imagen. El sensor (20) está configurado además para transmitir simultáneamente la señal de retención de hardware al controlador (38) del robot. También se prevé que el sensor sin contacto Tricam pueda soportar una entrada externa que permite el inicio de la captación de imágenes por una señal de recepción de hardware generada externamente con respecto al sensor (20). De este modo, el generador (44) de señal de temporización puede ser asociado a algún dispositivo de cálculo externo (por ejemplo, el controlador del robot).
A efectos de "escanear" el sensor con respecto a la pieza a trabajar, se deben captar datos a la velocidad que permite el movimiento continuo del sensor. En una modalidad de funcionamiento continuo, el sensor sin contacto Tricam queda limitado por la velocidad de imágenes de su cámara que funciona a una frecuencia de 30 Hz. No obstante, existe una latencia de tiempo desde el momento en que el sensor inicia su láser al momento en el que las imágenes procesadas son puestas a disposición del sistema de visión (40). Como resultado, los datos de imagen indicados por el sensor (20) tienen un retardo de tiempo por detrás de los datos de posición indicados por el controlador (38) del robot en dos tiempos de imagen (por ejemplo, 2/30 segundos). De acuerdo con ello, los datos de imagen recibidos del sensor (20) requieren sincronización con los datos de posición recibidos desde el controlador (38) del robot.
La presente invención sincroniza los datos de imagen con los datos de posición, tal como se ha mostrado en la figura 4. Un espacio de memoria interno del sistema de visión es utilizado para almacenar y procesar datos de posición recibidos desde el controlador (38) del robot. El espacio de memoria queda definido además en un espacio de memoria de imagen para almacenar datos de imagen y, como mínimo, tres espacios de memoria de posición para almacenar datos de posición. Una primera señal de temporización provoca que el sistema de visión recupere los datos de posición (t_{0}) del controlador del robot que son almacenados a su vez en un primer espacio de memoria (62). Como respuesta a una segunda señal de temporización, el sistema de visión copia los datos de posición (t_{0}) en el primer espacio de memoria (62) en un segundo espacio de memoria (64) y a continuación recupera los siguientes datos de posición disponibles (t_{1}) en el primer espacio de memoria (62). De manera similar, una tercera señal de temporización provoca que los datos de posición (t_{0}) del segundo espacio de memoria (64) sean copiados en un tercer espacio de memoria (66), que los datos de posición (t_{1}) del primer espacio de memoria (62) se han copiado en el segundo espacio de memoria (64) y que nuevos datos de posición (t_{2}) sean recuperados en el primer espacio de memoria (62). En otras palabras, el sistema de visión (40) es capaz de almacenar los tres juegos más recientes de datos de posición recibidos del controlador (38) del robot.
En este momento, los datos de imagen (t_{0}) que corresponden a los datos de posición inicial (t_{0}) están disponibles desde el sensor hacia el sistema de visión. Como respuesta a la tercera señal de temporización, estos datos de imagen son leídos en el espacio de memoria de imagen (68) por el sistema de visión. Al relacionar estos datos de imagen con los datos de posición almacenados en el tercer espacio de memoria (66), el sistema de visión es capaz de construir de manera precisa datos de medición de la pieza a trabajar. Para cada señal de temporización adicional, este procedimiento de sincronización es repetido por el sistema de visión.
Tal como se ha explicado anteriormente, el funcionamiento del sensor sin contacto Tricam varía ligeramente de la descripción que se ha facilitado en relación con la figura 4. En el caso del sensor Tricam, una señal de temporización indica al sistema de visión que recupere los datos de imagen actuales del sensor y que recupere los datos de posición actuales del controlador del robot. El primer caso de esta señal de temporización no tiene lugar hasta después de que se han procesado los datos del primer juego de imágenes y éstos se han puesto a disposición del sistema de visión. Dado que existen dos marcos de tiempo entre el inicio del láser y esta primera señal de temporización, los datos de posición disponibles no se corresponden con los datos de imagen disponibles. En otras palabras, los datos de posición que se han recuperado como respuesta a la primera señal de temporización, corresponden a los datos de imagen recuperados como respuesta a la tercera señal de temporización. Como resultado, los dos primeros conjuntos de datos de imagen son descartados y la sincronización empieza con el tercer conjunto de datos de imagen.
En vez de determinar la posición del sensor a partir de la información proporcionada por el controlador del robot, de acuerdo con la invención se prevé que la posición del sensor sea indicada directamente al sistema de visión (40) por un sistema de medición independiente, tal como se ha mostrado en la figura 5.
De acuerdo con la presente invención, una o varias cámaras fotogramétricas son posicionadas en puntos ventajosos en la estación de detección. Cada una de las cámaras fotogramétricas funciona bajo técnicas fotogramétricas convencionales. Es decir, la cámara fotogramétrica emite un haz de luz casi monocromática y su cámara detecta la reflexión de esta luz. Por ejemplo, se pueden colocar marcadores retroreflectantes sobre la superficie del sensor en contacto (20). Cuando los marcadores son iluminados por luz ultrarroja desde una cámara, la luz reflejada por los marcadores en forma de puntos de luz brillantes, regresando a una unidad de captación de movimiento dentro de la cámara. Los puntos de luz son analizados de manera que su posición y dimensiones son calculadas por la cámara determinando de esta manera la posición de los marcadores. Se prevé que la cámara fotogramétrica pueda funcionar utilizando otras técnicas operativas convencionales, incluyendo, sin que ello sea limitativo, la captación de objetivos luminosos.
En cualquier caso, siempre que el sensor se encuentra dentro del campo de visión de las cámaras fotogramétricas, el sistema de fotogrametría proporcionará una determinación precisa de la posición del sensor. De esta manera, la posición real del sensor es indicada al sistema de visión (40). Se debe observar que, dado que el sistema de fotogrametría (80) informa sobre la posición real del sensor, de acuerdo con la invención no hay necesidad del módulo de corrección cinemática. El sistema de sensor (10) basado en el robot puede funcionar de otro modo, tal como se ha explicado anteriormente con respecto a las figuras 1-4.
De lo anterior se apreciará que la presente invención da a conocer un avance significativo en la técnica de los sistemas de sensores basados en un robot. La invención determina con precisión, datos de medición tridimensional para una pieza a trabajar mediante la utilización de un proceso de escaneado sincronizado y sin necesidad de dispositivos sensores de posición onerosos, tales como los CMM.
Si bien la invención ha sido descrita en esta forma actualmente preferente, se comprenderá que la invención es capaz de modificaciones sin salir del campo de las reivindicaciones adjuntas.

Claims (9)

1. Sistema de sensor basado en un robot, para determinar datos de medición tridimensional de la superficie de un objeto (12), que comprende:
un robot (24) con un brazo de robot (22);
un controlador (38) para provocar que dicho brazo (22) del robot se desplace con respecto a la superficie del objeto (12);
un sensor sin contacto (20) dispuesto sobre dicho brazo (22) del robot para recoger datos de imagen representativos de una parte de la superficie del objeto (12);
un dispositivo (80) indicador de posición para indicar datos de posición representativos de la posición de dicho sensor sin contacto (20);
un generador (44) de señal de temporización para generar periódicamente y transmitir una señal de sincronización, estando dicho dispositivo indicador de posición (80) conectado eléctricamente con dicho generador de señal de temporización (44) y configurado para informar de datos de posición como respuesta a cada una de dichas señales de sincronización, y estando conectado eléctricamente dicho sensor sin contacto (20) con dicho generador de señal de temporización (44) y configurado para recoger datos de imagen como respuesta a cada una de dichas señales de sincronización;
un procesador de datos (40) adaptado para recuperar datos de imagen de dicho sensor sin contacto (20) y datos de posición de dicho dispositivo indicador de posición (80), y siendo operativo para sincronizar los datos de imagen con los datos de posición, generando de esta manera una representación tridimensional del objeto (12);
estando configurado dicho dispositivo indicador de posición (80) en forma de sistema de medición fotogramétrico que emite una descarga de luz casi monocromática, detecta puntos de luz resultantes del reflejo de la descarga de luz desde marcadores retrorreflectantes situados sobre la superficie del sensor sin contacto (20) y detecta la posición de los marcadores.
\vskip1.000000\baselineskip
2. Sistema sensor basado en un robot, según la reivindicación 1, en el que dicho brazo (22) del robot explora la superficie del objeto (12), de manera que los datos de imagen indicados por dicho sensor sin contacto (20) tienen un retardo de tiempo por detrás de los datos de posición indicados por dicho dispositivo (80) indicador de posición.
3. Sistema sensor basado en un robot, según la reivindicación 1 ó 2, que comprende además un espacio de almacenamiento en memoria (62, 64, 66) para almacenar datos de posición desde dicho dispositivo (80) indicador de posición, estando dicho procesador de datos (40) conectado a dicho espacio de almacenamiento en memoria (62, 64, 66) para sincronizar los datos de imagen con los datos de posición correspondientes.
4. Sistema sensor basado en un robot, según cualquiera de las reivindicaciones 1 a 3, en el que dicho sensor sin contacto (20) es un sensor de luz estructural bidimensional (20).
5. Sistema sensor basado en un robot, según cualquiera de las reivindicaciones 1 a 4, en el que dicho sensor sin contacto (20) emite luz estructurada en una configuración plana predefinida y teniendo un receptor óptico para recibir luz reflejada emitida por dicho sensor sin contacto (20), de manera que la luz reflejada es indicativa de la superficie del objeto (12).
6. Sistema sensor basado en un robot, según cualquiera de las reivindicaciones 1 a 5, en el que:
dicho controlador está configurado como controlador (38) del robot para controlar los movimientos de dicho brazo (22) del robot; estando conectado dicho generador de señal de temporización (44) eléctricamente con dicho controlador (38) del robot para generar y transmitir periódicamente dicha señal de sincronización, indicando dicho controlador (38) del robot un conjunto de dichos datos de posición como respuesta a cada una de dichas señales de sincronización, generando de esta manera una serie de conjuntos de datos de posición;
siendo dicho sensor sin contacto (20) sensible a cada una de dichas señales de sincronización para la captación de un conjunto de datos de imagen representativos de una parte de dicho objetivo (12), generando de esta manera una correspondiente pluralidad de conjuntos de datos de imagen representativos de una pluralidad de partes del objeto (12); y
estando configurado dicho procesador de datos como sistema de visión (40) adaptado para recuperar dicha serie de datos de imagen de dicho sensor sin contacto (20) y sincronizar cada conjunto de datos de imagen con un correspondiente conjunto de datos de posición, generando de esta manera una representación tridimensional del objeto (12).
\vskip1.000000\baselineskip
7. Sistema sensor basado en un robot, según la reivindicación 6, que comprende además un sistema de transformación de coordenadas para transformar cada conjunto de datos de posición en un marco de referencia del sensor, de manera que el marco de referencia del sensor está asociado con dicho sensor sin contacto (20).
8. Sistema sensor basado en un robot, según la reivindicación 6 ó 7, en el que dicho controlador (38) del robot está configurado para indicar datos de posición representativos de la posición de dicho brazo (22) del robot.
9. Sistema sensor basado en un robot, según la reivindicación 6 ó 7, en el que dicho sistema (80) de medición fotogramétrica tiene un campo de observación de calibración y es posicionable en un punto de ventaja, de manera que dicho sensor sin contacto (20) se encuentra dentro del campo de calibración, y en el que dicho sistema de medición fotogramétrico (80) se conecta eléctricamente a dicho generador de señal de temporización (44) e indica un conjunto de datos de posición como respuesta a cada una de dichas señales de sincronización, generando de esta manera una serie de conjuntos de datos de posición.
ES00117126T 1999-08-12 2000-08-10 Robot con sistema de sensor para determinar datos de medicion tridimensional. Expired - Lifetime ES2340462T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US372871 1999-08-12
US09/372,871 US6166811A (en) 1999-08-12 1999-08-12 Robot-based gauging system for determining three-dimensional measurement data

Publications (1)

Publication Number Publication Date
ES2340462T3 true ES2340462T3 (es) 2010-06-04

Family

ID=23469960

Family Applications (1)

Application Number Title Priority Date Filing Date
ES00117126T Expired - Lifetime ES2340462T3 (es) 1999-08-12 2000-08-10 Robot con sistema de sensor para determinar datos de medicion tridimensional.

Country Status (5)

Country Link
US (1) US6166811A (es)
EP (1) EP1076221B1 (es)
CA (1) CA2315508C (es)
DE (1) DE60044170D1 (es)
ES (1) ES2340462T3 (es)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6705526B1 (en) 1995-12-18 2004-03-16 Metrologic Instruments, Inc. Automated method of and system for dimensioning objects transported through a work environment using contour tracing, vertice detection, corner point detection, and corner point reduction methods on two-dimensional range data maps captured by an amplitude modulated laser scanning beam
US20020014533A1 (en) 1995-12-18 2002-02-07 Xiaxun Zhu Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps
US6662083B2 (en) * 2000-10-31 2003-12-09 Progressive Tool & Industries Co. Multiple robotic workstation with multiple fixtures
US6567162B2 (en) 2001-05-31 2003-05-20 The Regents Of The University Of Michigan Reconfigurable apparatus and method for inspection during a manufacturing process
DE10164944B4 (de) * 2001-10-15 2013-03-28 Hermann, Dr.-Ing. Tropf Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen
US7344082B2 (en) * 2002-01-02 2008-03-18 Metrologic Instruments, Inc. Automated method of and system for dimensioning objects over a conveyor belt structure by applying contouring tracing, vertice detection, corner point detection, and corner point reduction methods to two-dimensional range data maps of the space above the conveyor belt captured by an amplitude modulated laser scanning beam
FR2846413B1 (fr) * 2002-10-24 2005-03-11 Luc Vergnaud Dispositif de numerisation sans contact d'un objet en 3 dimensions
US7024032B2 (en) * 2002-10-31 2006-04-04 Perceptron, Inc. Method for assessing fit and alignment of a manufactured part
US20030137673A1 (en) * 2002-12-13 2003-07-24 Cox Cary B. Systems, and methods of use, employing distorted patterns to ascertain the shape of a surface, for road or runway profiling, or as input to control pro-active suspension systems
DE10311247B8 (de) * 2003-03-14 2008-05-08 Inos Automationssoftware Gmbh Portable Einrichtung zum Erfassen einer Lage und von Abmessungen eines Objekts
GB2417090A (en) * 2003-04-28 2006-02-15 Stephen James Crampton CMM arm with exoskeleton
DE10335472A1 (de) * 2003-08-02 2005-02-17 E. Zoller GmbH & Co. KG Einstell- und Messgeräte Mess- und/oder Einstellgerät
EP1524494A1 (en) * 2003-10-17 2005-04-20 inos Automationssoftware GmbH Method for calibrating a camera-laser-unit in respect to a calibration-object
DE10354078B4 (de) * 2003-11-19 2008-09-04 Daimler Ag Spannvorrichtung für Werkstücke zur dreidimensionalen optischen Oberflächenmessung
US7693325B2 (en) 2004-01-14 2010-04-06 Hexagon Metrology, Inc. Transprojection of geometry data
DE102004024378B4 (de) * 2004-05-17 2009-05-20 Kuka Roboter Gmbh Verfahren zur robotergestützten Vermessung von Objekten
US7289216B2 (en) * 2004-07-19 2007-10-30 Compagnie Plastic Omnium Station for inspecting the painting of motor vehicle parts
FR2873205B1 (fr) 2004-07-19 2007-05-18 Plastic Omnium Cie Procede et poste de controle de peinture de piece de carrosserie de vehicules automobiles
FR2873204B1 (fr) * 2004-07-19 2007-04-27 Plastic Omnium Cie Appareil de mesure pour le controle de pieces de carrosserie peintes, muni d'un dispositif anti-deterioration
DE102004046752B4 (de) * 2004-09-24 2010-10-21 GOM, Gesellschaft für optische Meßtechnik mit beschränkter Haftung Verfahren zur dreidimensionalen Erfassung von Messobjekten
NZ581496A (en) 2005-03-16 2010-02-26 Lucasfilm Entertainment Compan Three-dimensional motion capture using orientation of virtual structures
US8111904B2 (en) 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
EP2092269B1 (en) * 2006-11-20 2019-05-01 Hexagon Technology Center GmbH Coordinate measurement machine with improved joint
US8130225B2 (en) * 2007-01-16 2012-03-06 Lucasfilm Entertainment Company Ltd. Using animation libraries for object identification
US8199152B2 (en) 2007-01-16 2012-06-12 Lucasfilm Entertainment Company Ltd. Combining multiple session content for animation libraries
US8542236B2 (en) * 2007-01-16 2013-09-24 Lucasfilm Entertainment Company Ltd. Generating animation libraries
US8126260B2 (en) * 2007-05-29 2012-02-28 Cognex Corporation System and method for locating a three-dimensional object using machine vision
US7743660B2 (en) * 2007-06-15 2010-06-29 The Boeing Company System and method for automated inspection of large-scale part
US8224121B2 (en) * 2007-06-15 2012-07-17 The Boeing Company System and method for assembling substantially distortion-free images
US8144153B1 (en) 2007-11-20 2012-03-27 Lucasfilm Entertainment Company Ltd. Model production for animation libraries
US7779548B2 (en) 2008-03-28 2010-08-24 Hexagon Metrology, Inc. Coordinate measuring machine with rotatable grip
US8122610B2 (en) * 2008-03-28 2012-02-28 Hexagon Metrology, Inc. Systems and methods for improved coordination acquisition member comprising calibration information
US20090326712A1 (en) * 2008-06-26 2009-12-31 Utica Enterprises, Inc. Calibration for vehicle body assembly
US8923602B2 (en) * 2008-07-22 2014-12-30 Comau, Inc. Automated guidance and recognition system and method of the same
DE102008063680A1 (de) * 2008-10-10 2010-04-15 Abb Ag Verfahren zum Einlernen (Teachen) eines Industrieroboters sowie ein entsprechend ausgestatteter Industrieroboter
US7908757B2 (en) 2008-10-16 2011-03-22 Hexagon Metrology, Inc. Articulating measuring arm with laser scanner
US9734419B1 (en) 2008-12-30 2017-08-15 Cognex Corporation System and method for validating camera calibration in a vision system
US9142024B2 (en) 2008-12-31 2015-09-22 Lucasfilm Entertainment Company Ltd. Visual and physical motion sensing for three-dimensional motion capture
US9551575B2 (en) 2009-03-25 2017-01-24 Faro Technologies, Inc. Laser scanner having a multi-color light source and real-time color receiver
DE102009015920B4 (de) 2009-03-25 2014-11-20 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9533418B2 (en) 2009-05-29 2017-01-03 Cognex Corporation Methods and apparatus for practical 3D vision system
EP2449353B1 (en) * 2009-06-30 2019-09-11 Hexagon Technology Center GmbH Articulated arm system with vibration detection and corresponding operating method
US8112896B2 (en) 2009-11-06 2012-02-14 Hexagon Metrology Ab Articulated arm
US9113023B2 (en) 2009-11-20 2015-08-18 Faro Technologies, Inc. Three-dimensional scanner with spectroscopic energy detector
US9210288B2 (en) 2009-11-20 2015-12-08 Faro Technologies, Inc. Three-dimensional scanner with dichroic beam splitters to capture a variety of signals
DE102009057101A1 (de) 2009-11-20 2011-05-26 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9529083B2 (en) 2009-11-20 2016-12-27 Faro Technologies, Inc. Three-dimensional scanner with enhanced spectroscopic energy detector
US20110213247A1 (en) * 2010-01-08 2011-09-01 Hexagon Metrology, Inc. Articulated arm with imaging device
US8630314B2 (en) * 2010-01-11 2014-01-14 Faro Technologies, Inc. Method and apparatus for synchronizing measurements taken by multiple metrology devices
US9163922B2 (en) 2010-01-20 2015-10-20 Faro Technologies, Inc. Coordinate measurement machine with distance meter and camera to determine dimensions within camera images
US8677643B2 (en) 2010-01-20 2014-03-25 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
US9879976B2 (en) 2010-01-20 2018-01-30 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
US8615893B2 (en) 2010-01-20 2013-12-31 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine having integrated software controls
US8028432B2 (en) 2010-01-20 2011-10-04 Faro Technologies, Inc. Mounting device for a coordinate measuring machine
US8533967B2 (en) * 2010-01-20 2013-09-17 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
US8875409B2 (en) 2010-01-20 2014-11-04 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
WO2011090888A2 (en) 2010-01-20 2011-07-28 Faro Technologies, Inc. Coordinate measuring machine having an illuminated probe end and method of operation
US8898919B2 (en) 2010-01-20 2014-12-02 Faro Technologies, Inc. Coordinate measurement machine with distance meter used to establish frame of reference
US8832954B2 (en) 2010-01-20 2014-09-16 Faro Technologies, Inc. Coordinate measurement machines with removable accessories
USD643319S1 (en) 2010-03-29 2011-08-16 Hexagon Metrology Ab Portable coordinate measurement machine
DE102010018979A1 (de) * 2010-05-03 2011-11-03 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US8127458B1 (en) 2010-08-31 2012-03-06 Hexagon Metrology, Inc. Mounting apparatus for articulated arm laser scanner
CN103003713B (zh) 2010-09-08 2015-04-01 法罗技术股份有限公司 具有投影器的激光扫描器或激光跟踪器
US9168654B2 (en) 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
US9124873B2 (en) 2010-12-08 2015-09-01 Cognex Corporation System and method for finding correspondence between cameras in a three-dimensional vision system
USD668656S1 (en) * 2011-01-24 2012-10-09 Datalogic ADC, Inc. Tunnel scanner
US8948447B2 (en) 2011-07-12 2015-02-03 Lucasfilm Entertainment Companyy, Ltd. Scale independent tracking pattern
WO2013074926A1 (en) 2011-11-18 2013-05-23 Lucasfilm Entertainment Company Ltd. Path and speed based character control
US8763267B2 (en) 2012-01-20 2014-07-01 Hexagon Technology Center Gmbh Locking counterbalance for a CMM
DE102012100609A1 (de) 2012-01-25 2013-07-25 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9069355B2 (en) 2012-06-08 2015-06-30 Hexagon Technology Center Gmbh System and method for a wireless feature pack
US8997362B2 (en) 2012-07-17 2015-04-07 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with optical communications bus
EP2705935A1 (en) 2012-09-11 2014-03-12 Hexagon Technology Center GmbH Coordinate measuring machine
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
US9250214B2 (en) 2013-03-12 2016-02-02 Hexagon Metrology, Inc. CMM with flaw detection system
WO2014182707A2 (en) * 2013-05-06 2014-11-13 Iphoton Solutions, Llc Volume reconstruction of an object using a 3d sensor and robotic coordinates
JP6217343B2 (ja) * 2013-11-26 2017-10-25 セントラル硝子株式会社 湾曲板形状検査装置
US9163921B2 (en) 2013-12-18 2015-10-20 Hexagon Metrology, Inc. Ultra-portable articulated arm coordinate measurement machine
US9594250B2 (en) 2013-12-18 2017-03-14 Hexagon Metrology, Inc. Ultra-portable coordinate measurement machine
US9759540B2 (en) 2014-06-11 2017-09-12 Hexagon Metrology, Inc. Articulating CMM probe
US10656617B2 (en) 2014-07-16 2020-05-19 Faro Technologies, Inc. Measurement device for machining center
ES2967886T3 (es) 2014-09-19 2024-05-06 Hexagon Metrology Inc Máquina de medición por coordenadas portátil multimodo
PL3012695T3 (pl) 2014-10-23 2018-03-30 Comau S.P.A. Układ do monitorowania i sterowania zakładem przemysłowym
CN105043315A (zh) * 2015-04-30 2015-11-11 天津菲利科电子技术有限公司 非机械式斗轮机斗臂角度及斗轮相对位置检测系统
DE102015122844A1 (de) 2015-12-27 2017-06-29 Faro Technologies, Inc. 3D-Messvorrichtung mit Batteriepack
US10059478B2 (en) 2016-06-02 2018-08-28 Becton Dickinson Rowa Germany Gmbh Method and device for dividing a blister strip
BR112019000728B1 (pt) 2016-07-15 2023-03-28 Fastbrick Ip Pty Ltd Veículo que incorpora máquina de assentamento de tijolos
US10865578B2 (en) 2016-07-15 2020-12-15 Fastbrick Ip Pty Ltd Boom for material transport
WO2019006511A1 (en) 2017-07-05 2019-01-10 Fastbrick Ip Pty Ltd REAL-TIME POSITION TRACKING AND ORIENTATION DEVICE
CN111213098B (zh) 2017-08-17 2024-03-15 快砖知识产权私人有限公司 用于交互系统的通信系统
CN111226090B (zh) 2017-08-17 2023-05-23 快砖知识产权私人有限公司 具有改进的横滚角测量的激光跟踪器
US11401115B2 (en) 2017-10-11 2022-08-02 Fastbrick Ip Pty Ltd Machine for conveying objects and multi-bay carousel for use therewith
JP7073785B2 (ja) * 2018-03-05 2022-05-24 オムロン株式会社 画像検査装置、画像検査方法及び画像検査プログラム
IT201800005091A1 (it) 2018-05-04 2019-11-04 "Procedimento per monitorare lo stato di funzionamento di una stazione di lavorazione, relativo sistema di monitoraggio e prodotto informatico"
EP3823796A4 (en) 2018-07-16 2022-04-27 Fastbrick IP Pty Ltd ACTIVE DAMPING SYSTEM
CN112703092A (zh) 2018-07-16 2021-04-23 快砖知识产权私人有限公司 交互系统的备份跟踪
WO2021212176A1 (en) 2020-04-22 2021-10-28 Fastbrick Ip Pty Ltd Block transfer apparatus and improved clamping assembly for use therewith
AU2021304545B2 (en) 2020-07-08 2025-12-04 Fastbrick Ip Pty Ltd Adhesive application system
CN114851246B (zh) * 2022-04-19 2024-06-14 深圳市大族机器人有限公司 机器人性能测试系统与方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1591922A (en) * 1976-10-19 1981-07-01 Matsushita Electric Industrial Co Ltd Magnetic recording and reproducing system
US4254433A (en) * 1979-06-25 1981-03-03 General Motors Corporation Visual motion tracking system
JPS58177295A (ja) 1982-04-07 1983-10-17 株式会社日立製作所 ロボット制御装置
US4841460A (en) * 1987-09-08 1989-06-20 Perceptron, Inc. Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
US5142160A (en) * 1990-08-31 1992-08-25 Frank Storbeck Method and device for determining the volume of an object on a flat background
AT396181B (de) * 1990-12-10 1993-06-25 Sprecher Energie Oesterreich Einrichtung zum erfassen der masse eines gegebenenfalls bewegten gegenstandes
IS1666B (is) * 1991-02-19 1997-11-14 Marel Hf Aðferð og búnaður til ákvörðunar rúmmáls, forms og þyngdar fisks eða annarra hluta
US5319443A (en) * 1991-03-07 1994-06-07 Fanuc Ltd Detected position correcting method
US5400638A (en) * 1992-01-14 1995-03-28 Korea Institute Of Science And Technology Calibration system for compensation of arm length variation of an industrial robot due to peripheral temperature change
GB2278678B (en) * 1993-05-25 1996-10-16 Toyota Motor Co Ltd A chamber volume correcting method for a cylinder head of an engine
US5561526A (en) * 1994-05-26 1996-10-01 Lockheed Missiles & Space Company, Inc. Three-dimensional measurement device and system
US5719678A (en) * 1994-07-26 1998-02-17 Intermec Corporation Volumetric measurement of a parcel using a CCD line scanner and height sensor
DE69635858T2 (de) * 1995-06-22 2006-11-30 3Dv Systems Ltd. Telezentrische 3d kamera und zugehöriges verfahren
US5699161A (en) * 1995-07-26 1997-12-16 Psc, Inc. Method and apparatus for measuring dimensions of objects on a conveyor
GB9515311D0 (en) 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
US5822486A (en) * 1995-11-02 1998-10-13 General Scanning, Inc. Scanned remote imaging method and system and method of determining optimum design characteristics of a filter for use therein
US5793900A (en) * 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US6044170A (en) * 1996-03-21 2000-03-28 Real-Time Geometry Corporation System and method for rapid shape digitizing and adaptive mesh generation
EP0851207B1 (en) * 1996-12-31 2004-05-12 DATALOGIC S.p.A. Process and apparatus for measuring the volume of an object by means of a laser scanner and a CCD detector
AU9223298A (en) * 1997-09-04 1999-03-22 Dynalog, Inc. Method for calibration of a robot inspection system
US5910845A (en) * 1997-12-02 1999-06-08 Brown; Thomas Mattingly Peripheral viewing optical scanner for three dimensional surface measurement

Also Published As

Publication number Publication date
CA2315508C (en) 2008-10-14
EP1076221A2 (en) 2001-02-14
CA2315508A1 (en) 2001-02-12
EP1076221A3 (en) 2003-03-26
DE60044170D1 (de) 2010-05-27
US6166811A (en) 2000-12-26
EP1076221B1 (en) 2010-04-14

Similar Documents

Publication Publication Date Title
ES2340462T3 (es) Robot con sistema de sensor para determinar datos de medicion tridimensional.
US9482514B2 (en) Diagnosing multipath interference and eliminating multipath interference in 3D scanners by directed probing
US10119805B2 (en) Three-dimensional coordinate scanner and method of operation
US10089415B2 (en) Three-dimensional coordinate scanner and method of operation
USRE35816E (en) Method and apparatus for three-dimensional non-contact shape sensing
CA2370156C (en) Method for optically detecting the shape of objects
JP2014511480A (ja) 対象の位置および移動を測定するシステム
WO2014149702A1 (en) Three-dimensional coordinate scanner and method of operation
JP2004518123A (ja) 外部座標系に対して非接触形状測定センサーを較正する方法並びに装置
EP1091186A2 (en) Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system
WO2001007866A1 (en) System for scanning of the geometry of large objects
ES2924330T3 (es) Aparato y método para la verificación sin contacto de las dimensiones y/o forma de un cuerpo de forma compleja
JP2025145428A (ja) 自己位置推定装置及び自己位置推定方法