JPH0339611A - 視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法 - Google Patents
視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法Info
- Publication number
- JPH0339611A JPH0339611A JP1173080A JP17308089A JPH0339611A JP H0339611 A JPH0339611 A JP H0339611A JP 1173080 A JP1173080 A JP 1173080A JP 17308089 A JP17308089 A JP 17308089A JP H0339611 A JPH0339611 A JP H0339611A
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- robot
- visual
- workpiece
- recognition device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[産業上の利用分野]
本発明は、視覚認識装置を具備したロボットにおける、
ロボット座標系と視覚認識座標系のキャリブレーション
方法に関するものである。
ロボット座標系と視覚認識座標系のキャリブレーション
方法に関するものである。
[従来の技術]
従来のロボットは教示点に対してアームなりハンドを移
動するというものであった。近年、画像処理技術の進歩
により、視覚系でワーク位置を認識したり、把持したワ
ークを視覚系で確認しながら所定位置に移動するという
ような視覚系付きのロボットが脚光を浴びている。
動するというものであった。近年、画像処理技術の進歩
により、視覚系でワーク位置を認識したり、把持したワ
ークを視覚系で確認しながら所定位置に移動するという
ような視覚系付きのロボットが脚光を浴びている。
このいわゆる視覚付きロボットでは、視覚認識座標系と
ロボット座標系という2つの座標系がシステム内に存在
することになり、これらの2つの座標系のキャリブレー
ションが不可欠になる。
ロボット座標系という2つの座標系がシステム内に存在
することになり、これらの2つの座標系のキャリブレー
ションが不可欠になる。
このキャリブレーションは、従来では、次のようにして
いる。例えば、特開昭58−11487号公報では、ロ
ボット座標系で既知の位置にある所定のマークを視覚系
で認識し、ロボット座標系によるマーク座標と視覚系に
よるマーク座標とから、視覚認識座標系とロボット座標
系の原点オフセット量、視覚認識系に対するロボット座
標系のアスペクト比、座標軸間の回転角を算出するとい
う方法がとられている。
いる。例えば、特開昭58−11487号公報では、ロ
ボット座標系で既知の位置にある所定のマークを視覚系
で認識し、ロボット座標系によるマーク座標と視覚系に
よるマーク座標とから、視覚認識座標系とロボット座標
系の原点オフセット量、視覚認識系に対するロボット座
標系のアスペクト比、座標軸間の回転角を算出するとい
う方法がとられている。
[発明が解決しようとしている課題]
発明者達は、上記従来例の手法によりキャリブレーショ
ンを行なっても、誤差がつきまとっていることを経験的
に見出した、その原因を詳細に検討した。
ンを行なっても、誤差がつきまとっていることを経験的
に見出した、その原因を詳細に検討した。
発明者達の検討によると、上記従来例では、マークの画
像取り込み回数が1回であるために、照明条件の変動、
ロボットのサーボモータによる振動、ITVカメラの感
度のムラ、画像処理装置の白黒濃淡画像の2値化処理時
に発生する量子化誤差等によって視覚認識座標系で数画
素の読み取り誤差を生じているという結論に達した。ま
た、ITVカメラの単位時間当りの走査回数と照明電源
の電源周波数とで取り込み画像にモアレが発生して、こ
れも誤差の原因になっていたことを見出した。
像取り込み回数が1回であるために、照明条件の変動、
ロボットのサーボモータによる振動、ITVカメラの感
度のムラ、画像処理装置の白黒濃淡画像の2値化処理時
に発生する量子化誤差等によって視覚認識座標系で数画
素の読み取り誤差を生じているという結論に達した。ま
た、ITVカメラの単位時間当りの走査回数と照明電源
の電源周波数とで取り込み画像にモアレが発生して、こ
れも誤差の原因になっていたことを見出した。
[課題を解決するための手段]
上記課題を達成するための本発明の構成は、視覚認識装
置を備えたロボットにおけるロボット座標系と視覚座標
系とのキャリブレーション方法であって、以下のa工程
乃至e工程からなる。
置を備えたロボットにおけるロボット座標系と視覚座標
系とのキャリブレーション方法であって、以下のa工程
乃至e工程からなる。
a工程:1つまたは複数個の所定のワークの各々をロボ
ット座標系による所定の位置に置く。b工程:該ワーク
を視覚認識装置で認識し、視覚座標系によるワーク位置
を検出する。C工程:上記す工程を、第1の所定回数だ
け繰返し、視覚座標系による平均ワーク位置と、このワ
ーク位置のバラツキ度とを算出する。d工程:上記b、
C工程を、上記バラツキ度が所定の制約条件を満たすま
で繰返す。C工程:前記ロボット座標系による位置と、
視覚座標系による平均ワーク位置とに基づいて、座標系
間のキャリブレーションデータを演算する。
ット座標系による所定の位置に置く。b工程:該ワーク
を視覚認識装置で認識し、視覚座標系によるワーク位置
を検出する。C工程:上記す工程を、第1の所定回数だ
け繰返し、視覚座標系による平均ワーク位置と、このワ
ーク位置のバラツキ度とを算出する。d工程:上記b、
C工程を、上記バラツキ度が所定の制約条件を満たすま
で繰返す。C工程:前記ロボット座標系による位置と、
視覚座標系による平均ワーク位置とに基づいて、座標系
間のキャリブレーションデータを演算する。
[実施例]
以下添付図面を参照し、本発明のキャリブレーション方
法を、直交型ロボットの適用した実施例を説明する。
法を、直交型ロボットの適用した実施例を説明する。
第1図は、本実施例の構成図であり、Z方向に移動可能
なZ軸アーム1と、水平方向(Y方向)に移動可能なY
軸アーム2と、水平方向(X方向)に移動可能なX軸ア
ーム3と、X軸アーム3の先端に設けられ(x、y)平
面と垂直の光軸を有するITVカメラ4と、X軸アーム
3に取り付けられたフィンガー5と、前記(x、y)平
面と平行な関係に配置されたパレット台6と、このパレ
ット台6に置かれた参照ワーク7と、ロボット制御と視
覚認識をコントロールする制御装置8とから構成されて
いる。
なZ軸アーム1と、水平方向(Y方向)に移動可能なY
軸アーム2と、水平方向(X方向)に移動可能なX軸ア
ーム3と、X軸アーム3の先端に設けられ(x、y)平
面と垂直の光軸を有するITVカメラ4と、X軸アーム
3に取り付けられたフィンガー5と、前記(x、y)平
面と平行な関係に配置されたパレット台6と、このパレ
ット台6に置かれた参照ワーク7と、ロボット制御と視
覚認識をコントロールする制御装置8とから構成されて
いる。
3つの参照ワーク7a乃至7cは円形の平板形状であっ
て、パレット台6との画像コントラストが充分得られる
ような配色となっている。本実施例では、参照ワークの
個数は3個とした。これは、後述するように、本実施例
でキャリブレーションを行なうのに必要なデータ(キャ
リブレーションデータ)が座標間回転角θ、原点間オフ
セット量(ΔX、ΔY)、アスペクト比r X + r
’+1の5つであり、また、1つの参照ワークからこ
れらの未知数について2つの代数式が得られるからであ
る。
て、パレット台6との画像コントラストが充分得られる
ような配色となっている。本実施例では、参照ワークの
個数は3個とした。これは、後述するように、本実施例
でキャリブレーションを行なうのに必要なデータ(キャ
リブレーションデータ)が座標間回転角θ、原点間オフ
セット量(ΔX、ΔY)、アスペクト比r X + r
’+1の5つであり、また、1つの参照ワークからこ
れらの未知数について2つの代数式が得られるからであ
る。
この点について、第2図により更に説明する。
先ず、ロボット座標系X軸と視覚座標系X軸とは0度ず
れている。視覚系の原点は、ロボット系の原点から、ロ
ボット系の座標で(△X、△Y)だけずれている。もし
ロボット座標系と視覚座標系とで、原点が一致し、座標
軸間でもずれていなければ、各座標軸間での単位長さ当
りの座標メモリの比はアスペクト比を与える。例えば、
θ=0で、(△X、△Y)= (0,O)である場合に
、ある点Pの座標値が、ロボット座標系で(X、。
れている。視覚系の原点は、ロボット系の原点から、ロ
ボット系の座標で(△X、△Y)だけずれている。もし
ロボット座標系と視覚座標系とで、原点が一致し、座標
軸間でもずれていなければ、各座標軸間での単位長さ当
りの座標メモリの比はアスペクト比を与える。例えば、
θ=0で、(△X、△Y)= (0,O)である場合に
、ある点Pの座標値が、ロボット座標系で(X、。
Y、)であって、視覚座標系で(xo + yo )で
あれば、 がアスペクト比となる。従って、任意の点Pのロボット
座標系の座標値(X、、Y)と視覚系の座標値(x、y
)との間には、 X = r X−X ’CO3θ−r v”/−5in
θ+△X・・・・・・(1) Y = r x、X−5inθ+r y−y’C08θ
+△Y・・・・・・(2) が成り立つ。この実施例では、上記2つの式における任
意の点Pを、ワーク、の重心位置としている。即ち、第
3図に示すように、ロボット座標系でワークを点P (
X、Y)に置くということは、ワークの重心について教
示した点P (X、Y)に、ワークを把持したアームを
移動することに他ならない。そして、このワークの形状
輪郭を画像処理にて認識し、この輪郭から重心を求め、
この重心座標W (x、y)は、本来は、P (X、Y
)に一致する筈である。即ち、W(x、y)とP(x、
y)には上記(1)(2)式が成立している筈である。
あれば、 がアスペクト比となる。従って、任意の点Pのロボット
座標系の座標値(X、、Y)と視覚系の座標値(x、y
)との間には、 X = r X−X ’CO3θ−r v”/−5in
θ+△X・・・・・・(1) Y = r x、X−5inθ+r y−y’C08θ
+△Y・・・・・・(2) が成り立つ。この実施例では、上記2つの式における任
意の点Pを、ワーク、の重心位置としている。即ち、第
3図に示すように、ロボット座標系でワークを点P (
X、Y)に置くということは、ワークの重心について教
示した点P (X、Y)に、ワークを把持したアームを
移動することに他ならない。そして、このワークの形状
輪郭を画像処理にて認識し、この輪郭から重心を求め、
この重心座標W (x、y)は、本来は、P (X、Y
)に一致する筈である。即ち、W(x、y)とP(x、
y)には上記(1)(2)式が成立している筈である。
そこで、上記キャリブレーションデータは5つの未知数
を含むから、3つのワークについて(1)(2)式、都
合6つの式を得れば、座標間回転角θ、原点間オフセッ
ト量(△X、ΔY)、アスペクト比rx、ryの5つを
計算で得ることができるわけである。
を含むから、3つのワークについて(1)(2)式、都
合6つの式を得れば、座標間回転角θ、原点間オフセッ
ト量(△X、ΔY)、アスペクト比rx、ryの5つを
計算で得ることができるわけである。
理論的には、画像処理による重心座標の計算は一回の測
定値に基づいて得られる筈であるが、前述したように、
照明条件の変動、ロボットのサーボモータによる振動、
ITVカメラの感度のムラ、量子化誤差等によって数画
素の読み取り誤差を生じていることに鑑みて、複数回に
わたる画像処理と受信位置計算を行なうようにしている
点に本実施例の特徴がある。
定値に基づいて得られる筈であるが、前述したように、
照明条件の変動、ロボットのサーボモータによる振動、
ITVカメラの感度のムラ、量子化誤差等によって数画
素の読み取り誤差を生じていることに鑑みて、複数回に
わたる画像処理と受信位置計算を行なうようにしている
点に本実施例の特徴がある。
本実施例の座標系キャリブレーションの方法について、
第4図のフローチャートに従って説明する。
第4図のフローチャートに従って説明する。
先ずステップS2.ステップS4で、カランタル及びカ
ウンタiを初期化する。カランタルは3つのワークを特
定するカウンタであって、p=1〜3の値を取り得る。
ウンタiを初期化する。カランタルは3つのワークを特
定するカウンタであって、p=1〜3の値を取り得る。
カウンタiは重心検出のための画像処理の回を特定する
カウンタであり、後述するように、本実施例では、最低
10回の画像処理を行ない(ステップS18参照)、測
定された重心位置の標準偏差σ8.σ、が所定の閾値L
x、Ly以下になる(ステップS20参照)まで繰返す
。
カウンタであり、後述するように、本実施例では、最低
10回の画像処理を行ない(ステップS18参照)、測
定された重心位置の標準偏差σ8.σ、が所定の閾値L
x、Ly以下になる(ステップS20参照)まで繰返す
。
ステップS6では、pのワークを所定位置(X、、Y、
)に置く。即ち、制御装置8によりロボットにまず参照
ワークの把持命令が出力され、ロボットが所定の位置に
移動し、参照ワーク7を把持し、次に制御装置8より出
力された位置座標(Xp、Y、)にX軸アーム3、Y軸
アーム2.2軸アーム1を制御して、参照ワーク7をパ
レット台6上に置く。この所定位置とは、第2図に示す
ように、例えばp=lのワークについては(x、、y、
)である。
)に置く。即ち、制御装置8によりロボットにまず参照
ワークの把持命令が出力され、ロボットが所定の位置に
移動し、参照ワーク7を把持し、次に制御装置8より出
力された位置座標(Xp、Y、)にX軸アーム3、Y軸
アーム2.2軸アーム1を制御して、参照ワーク7をパ
レット台6上に置く。この所定位置とは、第2図に示す
ように、例えばp=lのワークについては(x、、y、
)である。
ステップS8乃至ステップS10は、p番目のワークに
ついて、10回の画像取り込みと重心位置計算を行なう
ルーチンである。゛先ず、ステップS8ではカメラ4に
より、そのワークの画像を取り込む。即ち、参照ワーク
7の画像をITVカメラ4を介して制御装置8に内蔵さ
れた視覚認識装置に映像信号を送る。ステップSIOで
は、カウンタiをインクリメントして、映像取り込みが
一回行なわれたことを記憶する。
ついて、10回の画像取り込みと重心位置計算を行なう
ルーチンである。゛先ず、ステップS8ではカメラ4に
より、そのワークの画像を取り込む。即ち、参照ワーク
7の画像をITVカメラ4を介して制御装置8に内蔵さ
れた視覚認識装置に映像信号を送る。ステップSIOで
は、カウンタiをインクリメントして、映像取り込みが
一回行なわれたことを記憶する。
ステップSIOでは、ワーク7の重心位置を算出する。
即ち、ワーク7と台座6の色の相違による明度の違いを
利用して、一定の明度以上の画素を抽出し、即ち二値化
し、この輪郭形状から重心位置を算出する。この重心位
置を、p番目のワークのi番目の画像により得られたも
のであることに鑑み、(Xp++ y□)と表示する。
利用して、一定の明度以上の画素を抽出し、即ち二値化
し、この輪郭形状から重心位置を算出する。この重心位
置を、p番目のワークのi番目の画像により得られたも
のであることに鑑み、(Xp++ y□)と表示する。
ステップS14ではi回の測定による重心の平均値(X
A□yAp)を、 y AI+= ・ (4) に従って計算する。ステップS 16では、ワーク pの重心位置の標準偏差σX9+ σYつな計算する。
A□yAp)を、 y AI+= ・ (4) に従って計算する。ステップS 16では、ワーク pの重心位置の標準偏差σX9+ σYつな計算する。
ステップS16では、画像処理及び重心測定を10回行
なったかを調べる。即ち、ステップ320以下の制御で
は、10回以上の測定を行なった時の平均重心位置及び
標準偏差である。
なったかを調べる。即ち、ステップ320以下の制御で
は、10回以上の測定を行なった時の平均重心位置及び
標準偏差である。
ステップS22では、重心位置の標準偏差σ8□σ7.
が夫々閾値LX、LYをいまもって超えているかを調べ
る。もし、ステップS20でσXp≧Lx 且つ、 σ7p≧LY であれば、未だ、演算された平均重心位置データが正し
い値を示すほど測定を行なったとは言えないと判断でき
るので、ステップ88以下を繰返す。
が夫々閾値LX、LYをいまもって超えているかを調べ
る。もし、ステップS20でσXp≧Lx 且つ、 σ7p≧LY であれば、未だ、演算された平均重心位置データが正し
い値を示すほど測定を行なったとは言えないと判断でき
るので、ステップ88以下を繰返す。
ステップS20でNoと判断されることは、計算された
平均重心位置が正しい値に収束したと考えることができ
るので、ステップS22に進む。
平均重心位置が正しい値に収束したと考えることができ
るので、ステップS22に進む。
ステップS22では、カランタルをインクリメントして
、ステップS24を経て、ステップS4に戻り、ステッ
プ84〜ステツプS20を繰返す。
、ステップS24を経て、ステップS4に戻り、ステッ
プ84〜ステツプS20を繰返す。
即ち、p=lのワークの次に、p=2のワークの重心位
置等を計算し、次にp=3のワークの重心位置等を計算
する。
置等を計算し、次にp=3のワークの重心位置等を計算
する。
ステップS24でYESと判断されたときは、各ワーク
(p=1〜3)のロボット系でのワーク載置位置(X、
、Y、)と平均重心位置(xAp、yAp)とが得られ
たことになり、ステップS26で、キャリブレーション
データを計算する。即ち、(1)、(2)式の(X、Y
)に夫々(X、。
(p=1〜3)のロボット系でのワーク載置位置(X、
、Y、)と平均重心位置(xAp、yAp)とが得られ
たことになり、ステップS26で、キャリブレーション
データを計算する。即ち、(1)、(2)式の(X、Y
)に夫々(X、。
yp)を代入し、(x、y)に夫々(X AP+ :J
Ap)を代入して、座標間回転角θ、原点間オフセッ
ト量(△X、△Y)、アスペクト比r 、、 r 、の
5つを計算する。
Ap)を代入して、座標間回転角θ、原点間オフセッ
ト量(△X、△Y)、アスペクト比r 、、 r 、の
5つを計算する。
本発明はその主旨を逸脱しない範囲で種々変形が可能で
ある。
ある。
例えば、上記実施例では一例として直交型ロボットに本
発明を適用した事例を用いたが、本発明は水平多関節式
のロボットにも適用可能であることは明らかである。こ
の場合、(1)、(2)式%式% 上記事例では、3つのワークを用いていたが、座標間で
、キャリブレーションするものをつよりも少なくて済む
場合には、当然ワークの数は少なくて済む。
発明を適用した事例を用いたが、本発明は水平多関節式
のロボットにも適用可能であることは明らかである。こ
の場合、(1)、(2)式%式% 上記事例では、3つのワークを用いていたが、座標間で
、キャリブレーションするものをつよりも少なくて済む
場合には、当然ワークの数は少なくて済む。
また、上記事例では、最低測定回数を10回としたが、
この回数はあくまでも一例であって、これに限定される
ものではない。
この回数はあくまでも一例であって、これに限定される
ものではない。
また、測定データのバラツキ度を検査する指標は、標準
偏差に限られない。
偏差に限られない。
[発明の効果]
以上説明したように、本発明のキャリブレーション方法
によれば、ロボット座標系によるワークの載置位置と、
該ワークの視覚系による認識位置との関係の測定を複数
回1行ない、この測定の過程で、測定データの信頼性を
バラツキ度合によりチエツクし、信頼性が高まったと推
定できるならば、その時点で、キャリブレーションデー
タを計算するようにしている。従って、キャリブレーシ
ョンの精度向上と不必要な測定を除去することの両立化
が図れる。
によれば、ロボット座標系によるワークの載置位置と、
該ワークの視覚系による認識位置との関係の測定を複数
回1行ない、この測定の過程で、測定データの信頼性を
バラツキ度合によりチエツクし、信頼性が高まったと推
定できるならば、その時点で、キャリブレーションデー
タを計算するようにしている。従って、キャリブレーシ
ョンの精度向上と不必要な測定を除去することの両立化
が図れる。
第1図は本発明を適用した事例のロボットと視覚認識装
置とシステム構成図、 第2図はロボット座標系と視覚座標系の関係を示す図、 第3図は本実施例の原理を説明する図、第4図は実施し
た座標系キャリブレーションの制御手順のフローチャー
トである。 図中、 1・・・ロボット軸、2・・・ロボットX軸、3・・・
ロボットY軸、4・・・ITVカメラ、5・・・フィン
ガー6・・・パレット台、7a〜7C・・・参照ワーク
、8・・・制御装置、X、Y・・・ロボット座標系、x
+ y・・・視覚座標系、θ・・・ロボット座標系と視
覚座標系の横軸のなす角度、 △X。 △Y・・・フィンガーの視覚系 座標原点に対するオフセット量、 rx、ry ・・・アス ペクト比である。 特 許 出 願 人 キャノン株式会社 第 図 第2図 第3図
置とシステム構成図、 第2図はロボット座標系と視覚座標系の関係を示す図、 第3図は本実施例の原理を説明する図、第4図は実施し
た座標系キャリブレーションの制御手順のフローチャー
トである。 図中、 1・・・ロボット軸、2・・・ロボットX軸、3・・・
ロボットY軸、4・・・ITVカメラ、5・・・フィン
ガー6・・・パレット台、7a〜7C・・・参照ワーク
、8・・・制御装置、X、Y・・・ロボット座標系、x
+ y・・・視覚座標系、θ・・・ロボット座標系と視
覚座標系の横軸のなす角度、 △X。 △Y・・・フィンガーの視覚系 座標原点に対するオフセット量、 rx、ry ・・・アス ペクト比である。 特 許 出 願 人 キャノン株式会社 第 図 第2図 第3図
Claims (1)
- 【特許請求の範囲】 (1)視覚認識装置を備えたロボットにおけるロボット
座標系と視覚座標系とのキャリブレーション方法であっ
て、 a:1つまたは複数個の所定のワークの各々をロボット
座標系による所定の位置に置く工程と、 b:該ワークを視覚認識装置で認識し、視覚座標系によ
るワーク位置を検出する工程と、c:上記b工程を、第
1の所定回数だけ繰返し、視覚座標系による平均ワーク
位置と、このワーク位置のバラツキ度とを算出する工程
と、 d:上記b、c工程を、上記バラツキ度が所定の制約条
件を満たすまで繰返す工程と、 e:前記ロボット座標系による位置と、視覚座標系によ
る平均ワーク位置とに基づいて、座標系間のキャリブレ
ーションデータを演算する工程; とからなる視覚認識装置を備えたロボットにおける座標
系間のキャリブレーション方法。(2)キャリブレーシ
ョンデータの未知数の個数に対応した数の複数のワーク
を用意し、この複数のワークの各々について、上記a乃
至dの工程を実行して、前記ロボット座標系による位置
と視覚座標系による平均ワーク位置とを検出し、 これらの複数組のロボット座標系による位置と、視覚座
標系による平均ワーク位置とに基づいてキャリブレーシ
ョンデータを演算する事を特徴とする請求項の第1項に
記載の視覚認識装置を備えたロボットにおける座標系間
のキャリブレーション方法。 (3)前記バラツキ度は標準偏差である事を特徴とする
請求項の第1項に記載の視覚認識装置を備えたロボット
における座標系間のキャリブレーション方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1173080A JPH0339611A (ja) | 1989-07-06 | 1989-07-06 | 視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1173080A JPH0339611A (ja) | 1989-07-06 | 1989-07-06 | 視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0339611A true JPH0339611A (ja) | 1991-02-20 |
Family
ID=15953836
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP1173080A Pending JPH0339611A (ja) | 1989-07-06 | 1989-07-06 | 視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0339611A (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019042834A (ja) * | 2017-08-31 | 2019-03-22 | セイコーエプソン株式会社 | 制御装置およびロボットシステム |
| CN111805158A (zh) * | 2020-05-25 | 2020-10-23 | 福建星云电子股份有限公司 | 一种机器人的夹具位移自检测方法及系统 |
| CN113858253A (zh) * | 2021-10-22 | 2021-12-31 | 东普雷(佛山)汽车部件有限公司 | 3d视觉自动识别抓取上料系统 |
| CN116379984A (zh) * | 2023-04-03 | 2023-07-04 | 广州橘子电气有限公司 | 一种工业机器人定位精度校准方法和系统 |
| CN116637822A (zh) * | 2023-06-13 | 2023-08-25 | 武汉纺织大学 | 一种成品纱锭自动化分区装置 |
-
1989
- 1989-07-06 JP JP1173080A patent/JPH0339611A/ja active Pending
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2019042834A (ja) * | 2017-08-31 | 2019-03-22 | セイコーエプソン株式会社 | 制御装置およびロボットシステム |
| CN111805158A (zh) * | 2020-05-25 | 2020-10-23 | 福建星云电子股份有限公司 | 一种机器人的夹具位移自检测方法及系统 |
| CN113858253A (zh) * | 2021-10-22 | 2021-12-31 | 东普雷(佛山)汽车部件有限公司 | 3d视觉自动识别抓取上料系统 |
| CN116379984A (zh) * | 2023-04-03 | 2023-07-04 | 广州橘子电气有限公司 | 一种工业机器人定位精度校准方法和系统 |
| CN116379984B (zh) * | 2023-04-03 | 2023-10-03 | 广州橘子电气有限公司 | 一种工业机器人定位精度校准方法和系统 |
| CN116637822A (zh) * | 2023-06-13 | 2023-08-25 | 武汉纺织大学 | 一种成品纱锭自动化分区装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6041274A (en) | Positional deviation detecting device for a mobile body and position correcting apparatus for a working machine mounted on a mobile body | |
| US7177459B1 (en) | Robot system having image processing function | |
| EP0489919A1 (en) | Calibration system of visual sensor | |
| US20050219530A1 (en) | Method of adjusting monitor axis | |
| JPH03228591A (ja) | ワーク把持装置、ワーク及びその収納ケース | |
| JPH02143309A (ja) | 操縦方法及び装置 | |
| US7502504B2 (en) | Three-dimensional visual sensor | |
| JPS6332306A (ja) | 無接触三次元自動寸法測定方法 | |
| JPS60189517A (ja) | 位置制御装置 | |
| JPH0339611A (ja) | 視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法 | |
| JPH0626770B2 (ja) | ワークのはめ合い方法 | |
| JPH0820207B2 (ja) | 光学式3次元位置計測方法 | |
| JP2519445B2 (ja) | 工作線追従方法 | |
| US20090281762A1 (en) | IC device-in-pocket detection with angular mounted lasers and a camera | |
| JPH04269194A (ja) | 平面計測方法 | |
| JP3269816B2 (ja) | 部品実装装置 | |
| JP2913370B2 (ja) | 光学式位置計測方法 | |
| JPH10128689A (ja) | 無人移動体の視覚補正装置 | |
| JP2718249B2 (ja) | ロボットの位置ずれ検出装置 | |
| JPH0471673B2 (ja) | ||
| JP3679460B2 (ja) | 移動体装置及びその制御方法 | |
| JP2523420B2 (ja) | 光学式測定装置における画像処理方法 | |
| JPS62115591A (ja) | パタ−ン位置の認識方法 | |
| JPH0996506A (ja) | 3次元視覚センサによる位置調整方法および3次元画像認識装置 | |
| JP2584151Y2 (ja) | ロボット制御装置 |