JPH0339611A - 視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法 - Google Patents

視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法

Info

Publication number
JPH0339611A
JPH0339611A JP1173080A JP17308089A JPH0339611A JP H0339611 A JPH0339611 A JP H0339611A JP 1173080 A JP1173080 A JP 1173080A JP 17308089 A JP17308089 A JP 17308089A JP H0339611 A JPH0339611 A JP H0339611A
Authority
JP
Japan
Prior art keywords
coordinate system
robot
visual
workpiece
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1173080A
Other languages
English (en)
Inventor
Shigeru Yamada
茂 山田
Masaru Shibata
優 柴田
Katsumi Ishihara
石原 勝巳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP1173080A priority Critical patent/JPH0339611A/ja
Publication of JPH0339611A publication Critical patent/JPH0339611A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、視覚認識装置を具備したロボットにおける、
ロボット座標系と視覚認識座標系のキャリブレーション
方法に関するものである。
[従来の技術] 従来のロボットは教示点に対してアームなりハンドを移
動するというものであった。近年、画像処理技術の進歩
により、視覚系でワーク位置を認識したり、把持したワ
ークを視覚系で確認しながら所定位置に移動するという
ような視覚系付きのロボットが脚光を浴びている。
このいわゆる視覚付きロボットでは、視覚認識座標系と
ロボット座標系という2つの座標系がシステム内に存在
することになり、これらの2つの座標系のキャリブレー
ションが不可欠になる。
このキャリブレーションは、従来では、次のようにして
いる。例えば、特開昭58−11487号公報では、ロ
ボット座標系で既知の位置にある所定のマークを視覚系
で認識し、ロボット座標系によるマーク座標と視覚系に
よるマーク座標とから、視覚認識座標系とロボット座標
系の原点オフセット量、視覚認識系に対するロボット座
標系のアスペクト比、座標軸間の回転角を算出するとい
う方法がとられている。
[発明が解決しようとしている課題] 発明者達は、上記従来例の手法によりキャリブレーショ
ンを行なっても、誤差がつきまとっていることを経験的
に見出した、その原因を詳細に検討した。
発明者達の検討によると、上記従来例では、マークの画
像取り込み回数が1回であるために、照明条件の変動、
ロボットのサーボモータによる振動、ITVカメラの感
度のムラ、画像処理装置の白黒濃淡画像の2値化処理時
に発生する量子化誤差等によって視覚認識座標系で数画
素の読み取り誤差を生じているという結論に達した。ま
た、ITVカメラの単位時間当りの走査回数と照明電源
の電源周波数とで取り込み画像にモアレが発生して、こ
れも誤差の原因になっていたことを見出した。
[課題を解決するための手段] 上記課題を達成するための本発明の構成は、視覚認識装
置を備えたロボットにおけるロボット座標系と視覚座標
系とのキャリブレーション方法であって、以下のa工程
乃至e工程からなる。
a工程:1つまたは複数個の所定のワークの各々をロボ
ット座標系による所定の位置に置く。b工程:該ワーク
を視覚認識装置で認識し、視覚座標系によるワーク位置
を検出する。C工程:上記す工程を、第1の所定回数だ
け繰返し、視覚座標系による平均ワーク位置と、このワ
ーク位置のバラツキ度とを算出する。d工程:上記b、
C工程を、上記バラツキ度が所定の制約条件を満たすま
で繰返す。C工程:前記ロボット座標系による位置と、
視覚座標系による平均ワーク位置とに基づいて、座標系
間のキャリブレーションデータを演算する。
[実施例] 以下添付図面を参照し、本発明のキャリブレーション方
法を、直交型ロボットの適用した実施例を説明する。
第1図は、本実施例の構成図であり、Z方向に移動可能
なZ軸アーム1と、水平方向(Y方向)に移動可能なY
軸アーム2と、水平方向(X方向)に移動可能なX軸ア
ーム3と、X軸アーム3の先端に設けられ(x、y)平
面と垂直の光軸を有するITVカメラ4と、X軸アーム
3に取り付けられたフィンガー5と、前記(x、y)平
面と平行な関係に配置されたパレット台6と、このパレ
ット台6に置かれた参照ワーク7と、ロボット制御と視
覚認識をコントロールする制御装置8とから構成されて
いる。
3つの参照ワーク7a乃至7cは円形の平板形状であっ
て、パレット台6との画像コントラストが充分得られる
ような配色となっている。本実施例では、参照ワークの
個数は3個とした。これは、後述するように、本実施例
でキャリブレーションを行なうのに必要なデータ(キャ
リブレーションデータ)が座標間回転角θ、原点間オフ
セット量(ΔX、ΔY)、アスペクト比r X + r
 ’+1の5つであり、また、1つの参照ワークからこ
れらの未知数について2つの代数式が得られるからであ
る。
この点について、第2図により更に説明する。
先ず、ロボット座標系X軸と視覚座標系X軸とは0度ず
れている。視覚系の原点は、ロボット系の原点から、ロ
ボット系の座標で(△X、△Y)だけずれている。もし
ロボット座標系と視覚座標系とで、原点が一致し、座標
軸間でもずれていなければ、各座標軸間での単位長さ当
りの座標メモリの比はアスペクト比を与える。例えば、
θ=0で、(△X、△Y)= (0,O)である場合に
、ある点Pの座標値が、ロボット座標系で(X、。
Y、)であって、視覚座標系で(xo + yo )で
あれば、 がアスペクト比となる。従って、任意の点Pのロボット
座標系の座標値(X、、Y)と視覚系の座標値(x、y
)との間には、 X = r X−X ’CO3θ−r v”/−5in
θ+△X・・・・・・(1) Y = r x、X−5inθ+r y−y’C08θ
+△Y・・・・・・(2) が成り立つ。この実施例では、上記2つの式における任
意の点Pを、ワーク、の重心位置としている。即ち、第
3図に示すように、ロボット座標系でワークを点P (
X、Y)に置くということは、ワークの重心について教
示した点P (X、Y)に、ワークを把持したアームを
移動することに他ならない。そして、このワークの形状
輪郭を画像処理にて認識し、この輪郭から重心を求め、
この重心座標W (x、y)は、本来は、P (X、Y
)に一致する筈である。即ち、W(x、y)とP(x、
y)には上記(1)(2)式が成立している筈である。
そこで、上記キャリブレーションデータは5つの未知数
を含むから、3つのワークについて(1)(2)式、都
合6つの式を得れば、座標間回転角θ、原点間オフセッ
ト量(△X、ΔY)、アスペクト比rx、ryの5つを
計算で得ることができるわけである。
理論的には、画像処理による重心座標の計算は一回の測
定値に基づいて得られる筈であるが、前述したように、
照明条件の変動、ロボットのサーボモータによる振動、
ITVカメラの感度のムラ、量子化誤差等によって数画
素の読み取り誤差を生じていることに鑑みて、複数回に
わたる画像処理と受信位置計算を行なうようにしている
点に本実施例の特徴がある。
本実施例の座標系キャリブレーションの方法について、
第4図のフローチャートに従って説明する。
先ずステップS2.ステップS4で、カランタル及びカ
ウンタiを初期化する。カランタルは3つのワークを特
定するカウンタであって、p=1〜3の値を取り得る。
カウンタiは重心検出のための画像処理の回を特定する
カウンタであり、後述するように、本実施例では、最低
10回の画像処理を行ない(ステップS18参照)、測
定された重心位置の標準偏差σ8.σ、が所定の閾値L
x、Ly以下になる(ステップS20参照)まで繰返す
ステップS6では、pのワークを所定位置(X、、Y、
)に置く。即ち、制御装置8によりロボットにまず参照
ワークの把持命令が出力され、ロボットが所定の位置に
移動し、参照ワーク7を把持し、次に制御装置8より出
力された位置座標(Xp、Y、)にX軸アーム3、Y軸
アーム2.2軸アーム1を制御して、参照ワーク7をパ
レット台6上に置く。この所定位置とは、第2図に示す
ように、例えばp=lのワークについては(x、、y、
)である。
ステップS8乃至ステップS10は、p番目のワークに
ついて、10回の画像取り込みと重心位置計算を行なう
ルーチンである。゛先ず、ステップS8ではカメラ4に
より、そのワークの画像を取り込む。即ち、参照ワーク
7の画像をITVカメラ4を介して制御装置8に内蔵さ
れた視覚認識装置に映像信号を送る。ステップSIOで
は、カウンタiをインクリメントして、映像取り込みが
一回行なわれたことを記憶する。
ステップSIOでは、ワーク7の重心位置を算出する。
即ち、ワーク7と台座6の色の相違による明度の違いを
利用して、一定の明度以上の画素を抽出し、即ち二値化
し、この輪郭形状から重心位置を算出する。この重心位
置を、p番目のワークのi番目の画像により得られたも
のであることに鑑み、(Xp++ y□)と表示する。
ステップS14ではi回の測定による重心の平均値(X
 A□yAp)を、 y AI+=    ・ (4) に従って計算する。ステップS 16では、ワーク pの重心位置の標準偏差σX9+ σYつな計算する。
ステップS16では、画像処理及び重心測定を10回行
なったかを調べる。即ち、ステップ320以下の制御で
は、10回以上の測定を行なった時の平均重心位置及び
標準偏差である。
ステップS22では、重心位置の標準偏差σ8□σ7.
が夫々閾値LX、LYをいまもって超えているかを調べ
る。もし、ステップS20でσXp≧Lx  且つ、 σ7p≧LY であれば、未だ、演算された平均重心位置データが正し
い値を示すほど測定を行なったとは言えないと判断でき
るので、ステップ88以下を繰返す。
ステップS20でNoと判断されることは、計算された
平均重心位置が正しい値に収束したと考えることができ
るので、ステップS22に進む。
ステップS22では、カランタルをインクリメントして
、ステップS24を経て、ステップS4に戻り、ステッ
プ84〜ステツプS20を繰返す。
即ち、p=lのワークの次に、p=2のワークの重心位
置等を計算し、次にp=3のワークの重心位置等を計算
する。
ステップS24でYESと判断されたときは、各ワーク
(p=1〜3)のロボット系でのワーク載置位置(X、
、Y、)と平均重心位置(xAp、yAp)とが得られ
たことになり、ステップS26で、キャリブレーション
データを計算する。即ち、(1)、(2)式の(X、Y
)に夫々(X、。
yp)を代入し、(x、y)に夫々(X AP+ :J
 Ap)を代入して、座標間回転角θ、原点間オフセッ
ト量(△X、△Y)、アスペクト比r 、、 r 、の
5つを計算する。
本発明はその主旨を逸脱しない範囲で種々変形が可能で
ある。
例えば、上記実施例では一例として直交型ロボットに本
発明を適用した事例を用いたが、本発明は水平多関節式
のロボットにも適用可能であることは明らかである。こ
の場合、(1)、(2)式%式% 上記事例では、3つのワークを用いていたが、座標間で
、キャリブレーションするものをつよりも少なくて済む
場合には、当然ワークの数は少なくて済む。
また、上記事例では、最低測定回数を10回としたが、
この回数はあくまでも一例であって、これに限定される
ものではない。
また、測定データのバラツキ度を検査する指標は、標準
偏差に限られない。
[発明の効果] 以上説明したように、本発明のキャリブレーション方法
によれば、ロボット座標系によるワークの載置位置と、
該ワークの視覚系による認識位置との関係の測定を複数
回1行ない、この測定の過程で、測定データの信頼性を
バラツキ度合によりチエツクし、信頼性が高まったと推
定できるならば、その時点で、キャリブレーションデー
タを計算するようにしている。従って、キャリブレーシ
ョンの精度向上と不必要な測定を除去することの両立化
が図れる。
【図面の簡単な説明】
第1図は本発明を適用した事例のロボットと視覚認識装
置とシステム構成図、 第2図はロボット座標系と視覚座標系の関係を示す図、 第3図は本実施例の原理を説明する図、第4図は実施し
た座標系キャリブレーションの制御手順のフローチャー
トである。 図中、 1・・・ロボット軸、2・・・ロボットX軸、3・・・
ロボットY軸、4・・・ITVカメラ、5・・・フィン
ガー6・・・パレット台、7a〜7C・・・参照ワーク
、8・・・制御装置、X、Y・・・ロボット座標系、x
+ y・・・視覚座標系、θ・・・ロボット座標系と視
覚座標系の横軸のなす角度、 △X。 △Y・・・フィンガーの視覚系 座標原点に対するオフセット量、 rx、ry ・・・アス ペクト比である。 特 許 出 願 人 キャノン株式会社 第 図 第2図 第3図

Claims (1)

  1. 【特許請求の範囲】 (1)視覚認識装置を備えたロボットにおけるロボット
    座標系と視覚座標系とのキャリブレーション方法であっ
    て、 a:1つまたは複数個の所定のワークの各々をロボット
    座標系による所定の位置に置く工程と、 b:該ワークを視覚認識装置で認識し、視覚座標系によ
    るワーク位置を検出する工程と、c:上記b工程を、第
    1の所定回数だけ繰返し、視覚座標系による平均ワーク
    位置と、このワーク位置のバラツキ度とを算出する工程
    と、 d:上記b、c工程を、上記バラツキ度が所定の制約条
    件を満たすまで繰返す工程と、 e:前記ロボット座標系による位置と、視覚座標系によ
    る平均ワーク位置とに基づいて、座標系間のキャリブレ
    ーションデータを演算する工程; とからなる視覚認識装置を備えたロボットにおける座標
    系間のキャリブレーション方法。(2)キャリブレーシ
    ョンデータの未知数の個数に対応した数の複数のワーク
    を用意し、この複数のワークの各々について、上記a乃
    至dの工程を実行して、前記ロボット座標系による位置
    と視覚座標系による平均ワーク位置とを検出し、 これらの複数組のロボット座標系による位置と、視覚座
    標系による平均ワーク位置とに基づいてキャリブレーシ
    ョンデータを演算する事を特徴とする請求項の第1項に
    記載の視覚認識装置を備えたロボットにおける座標系間
    のキャリブレーション方法。 (3)前記バラツキ度は標準偏差である事を特徴とする
    請求項の第1項に記載の視覚認識装置を備えたロボット
    における座標系間のキャリブレーション方法。
JP1173080A 1989-07-06 1989-07-06 視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法 Pending JPH0339611A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1173080A JPH0339611A (ja) 1989-07-06 1989-07-06 視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1173080A JPH0339611A (ja) 1989-07-06 1989-07-06 視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法

Publications (1)

Publication Number Publication Date
JPH0339611A true JPH0339611A (ja) 1991-02-20

Family

ID=15953836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1173080A Pending JPH0339611A (ja) 1989-07-06 1989-07-06 視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法

Country Status (1)

Country Link
JP (1) JPH0339611A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019042834A (ja) * 2017-08-31 2019-03-22 セイコーエプソン株式会社 制御装置およびロボットシステム
CN111805158A (zh) * 2020-05-25 2020-10-23 福建星云电子股份有限公司 一种机器人的夹具位移自检测方法及系统
CN113858253A (zh) * 2021-10-22 2021-12-31 东普雷(佛山)汽车部件有限公司 3d视觉自动识别抓取上料系统
CN116379984A (zh) * 2023-04-03 2023-07-04 广州橘子电气有限公司 一种工业机器人定位精度校准方法和系统
CN116637822A (zh) * 2023-06-13 2023-08-25 武汉纺织大学 一种成品纱锭自动化分区装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019042834A (ja) * 2017-08-31 2019-03-22 セイコーエプソン株式会社 制御装置およびロボットシステム
CN111805158A (zh) * 2020-05-25 2020-10-23 福建星云电子股份有限公司 一种机器人的夹具位移自检测方法及系统
CN113858253A (zh) * 2021-10-22 2021-12-31 东普雷(佛山)汽车部件有限公司 3d视觉自动识别抓取上料系统
CN116379984A (zh) * 2023-04-03 2023-07-04 广州橘子电气有限公司 一种工业机器人定位精度校准方法和系统
CN116379984B (zh) * 2023-04-03 2023-10-03 广州橘子电气有限公司 一种工业机器人定位精度校准方法和系统
CN116637822A (zh) * 2023-06-13 2023-08-25 武汉纺织大学 一种成品纱锭自动化分区装置

Similar Documents

Publication Publication Date Title
US6041274A (en) Positional deviation detecting device for a mobile body and position correcting apparatus for a working machine mounted on a mobile body
US7177459B1 (en) Robot system having image processing function
EP0489919A1 (en) Calibration system of visual sensor
US20050219530A1 (en) Method of adjusting monitor axis
JPH03228591A (ja) ワーク把持装置、ワーク及びその収納ケース
JPH02143309A (ja) 操縦方法及び装置
US7502504B2 (en) Three-dimensional visual sensor
JPS6332306A (ja) 無接触三次元自動寸法測定方法
JPS60189517A (ja) 位置制御装置
JPH0339611A (ja) 視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法
JPH0626770B2 (ja) ワークのはめ合い方法
JPH0820207B2 (ja) 光学式3次元位置計測方法
JP2519445B2 (ja) 工作線追従方法
US20090281762A1 (en) IC device-in-pocket detection with angular mounted lasers and a camera
JPH04269194A (ja) 平面計測方法
JP3269816B2 (ja) 部品実装装置
JP2913370B2 (ja) 光学式位置計測方法
JPH10128689A (ja) 無人移動体の視覚補正装置
JP2718249B2 (ja) ロボットの位置ずれ検出装置
JPH0471673B2 (ja)
JP3679460B2 (ja) 移動体装置及びその制御方法
JP2523420B2 (ja) 光学式測定装置における画像処理方法
JPS62115591A (ja) パタ−ン位置の認識方法
JPH0996506A (ja) 3次元視覚センサによる位置調整方法および3次元画像認識装置
JP2584151Y2 (ja) ロボット制御装置