JPH09196622A - 位置検出方法 - Google Patents
位置検出方法Info
- Publication number
- JPH09196622A JPH09196622A JP8029899A JP2989996A JPH09196622A JP H09196622 A JPH09196622 A JP H09196622A JP 8029899 A JP8029899 A JP 8029899A JP 2989996 A JP2989996 A JP 2989996A JP H09196622 A JPH09196622 A JP H09196622A
- Authority
- JP
- Japan
- Prior art keywords
- angle
- points
- robot
- positions
- measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】 (修正有)
【課題】視覚手段の物体との距離を変化させて2点の位
置と角度とを3回計測することにより、位置および角度
を補正する方法と成すことで、ロボット制御精度および
解像精度に左右されることなく補正精度の大幅な向上を
図ることができる位置検出方法の提供を目的とする。 【解決手段】画像処理による物体の位置検出方法であっ
て、視覚手段2の画像認識により物体1の2点の位置
と、これら2点を結ぶ線の基準線に対する角度とを求
め、次に上記視覚手段2を、求めた位置および角度が基
準位置および基準角度となるように移動αさせ、この移
動位置αで2点の位置と角度とを再検出し、次に上記視
覚手段2の物体1との距離βを変化させて2点の位置の
位置と角度とを再度検出することにより位置および角度
を補正することを特徴とする。
置と角度とを3回計測することにより、位置および角度
を補正する方法と成すことで、ロボット制御精度および
解像精度に左右されることなく補正精度の大幅な向上を
図ることができる位置検出方法の提供を目的とする。 【解決手段】画像処理による物体の位置検出方法であっ
て、視覚手段2の画像認識により物体1の2点の位置
と、これら2点を結ぶ線の基準線に対する角度とを求
め、次に上記視覚手段2を、求めた位置および角度が基
準位置および基準角度となるように移動αさせ、この移
動位置αで2点の位置と角度とを再検出し、次に上記視
覚手段2の物体1との距離βを変化させて2点の位置の
位置と角度とを再度検出することにより位置および角度
を補正することを特徴とする。
Description
【0001】
【発明の属する技術分野】この発明は、例えば車両用ド
アやその他の部品をロボットを用いて組付けもしくは取
外しするような場合に用いられる画像処理による物体の
位置検出方法に関する。
アやその他の部品をロボットを用いて組付けもしくは取
外しするような場合に用いられる画像処理による物体の
位置検出方法に関する。
【0002】
【従来の技術】従来、被測定物の位置を画像処理により
検出する方法(位置検出方法)としては、例えば、特開
平2−243914号公報に記載の方法がある。すなわ
ち、図12に示す如く被測定物91を固定搭載するマス
タテーブル92と、このマスタテーブル92に対して位
置固定された視覚手段としてのCCDカメラ93と、こ
のCCDカメラ93によって撮像されたデータを演算す
る画像処理装置94とを備え、マスタテーブル92上の
基準点95に対する測定点96のマスタ位置データを画
像処理装置94内のメモリに格納し、この状態で被測定
物91をマスタテーブル92上の所定位置にセットし、
CCDカメラ93により被測定物91の測定点96とマ
スタテーブル92の基準点95との位置関係を画像処理
装置94により演算する。
検出する方法(位置検出方法)としては、例えば、特開
平2−243914号公報に記載の方法がある。すなわ
ち、図12に示す如く被測定物91を固定搭載するマス
タテーブル92と、このマスタテーブル92に対して位
置固定された視覚手段としてのCCDカメラ93と、こ
のCCDカメラ93によって撮像されたデータを演算す
る画像処理装置94とを備え、マスタテーブル92上の
基準点95に対する測定点96のマスタ位置データを画
像処理装置94内のメモリに格納し、この状態で被測定
物91をマスタテーブル92上の所定位置にセットし、
CCDカメラ93により被測定物91の測定点96とマ
スタテーブル92の基準点95との位置関係を画像処理
装置94により演算する。
【0003】この際、測定点96のマスタ位置データ
(X0 ,Y0 )と、実際に測定された測定点(X1 ,Y
1 )とのそれぞれの基準点を画像処理装置94内の演算
部で一致させ、これらマスタ基準位置および実測位置と
の誤差ΔX=X1 −X0 ,ΔY=Y1 −Y0 を演算し、
これにより測定点の位置座標を算出して、位置を検出お
よび補正する所謂座標位置検出方法である。
(X0 ,Y0 )と、実際に測定された測定点(X1 ,Y
1 )とのそれぞれの基準点を画像処理装置94内の演算
部で一致させ、これらマスタ基準位置および実測位置と
の誤差ΔX=X1 −X0 ,ΔY=Y1 −Y0 を演算し、
これにより測定点の位置座標を算出して、位置を検出お
よび補正する所謂座標位置検出方法である。
【0004】しかし、この従来方法にあっては1回のみ
の読込みにより補正を実行するうえ、CCDカメラ93
に関する角度情報の読込みを行なわない関係上、誤差が
±2.5mm程度と大きく、例えば±0.5mm程度の高精
度の補正が要求される位置検出には使用不可となる問題
点があった。
の読込みにより補正を実行するうえ、CCDカメラ93
に関する角度情報の読込みを行なわない関係上、誤差が
±2.5mm程度と大きく、例えば±0.5mm程度の高精
度の補正が要求される位置検出には使用不可となる問題
点があった。
【0005】一般に画像処理および視覚手段としてのC
CDカメラは被測定物に近付けば近づく程、解像精度が
向上するが、CCDカメラからの位置補正信号に対して
ロボットを駆動する場合、X軸成分、Y軸成分に加えて
角度成分を考慮する必要があり、かつロボット側にはロ
ボット駆動時に重力が作用するうえ、ロボットの製作誤
差もあり、さらにはロボット側での計算能力にも限界が
ある関係上、動作ずれが発生して、充分な高精度が確保
できず、指令位置と異なる位置、角度に動作してしまう
問題点があった。
CDカメラは被測定物に近付けば近づく程、解像精度が
向上するが、CCDカメラからの位置補正信号に対して
ロボットを駆動する場合、X軸成分、Y軸成分に加えて
角度成分を考慮する必要があり、かつロボット側にはロ
ボット駆動時に重力が作用するうえ、ロボットの製作誤
差もあり、さらにはロボット側での計算能力にも限界が
ある関係上、動作ずれが発生して、充分な高精度が確保
できず、指令位置と異なる位置、角度に動作してしまう
問題点があった。
【0006】
【発明が解決しようとする課題】この発明の請求項1記
載の発明は、視覚手段の画像認識により物体の2点の位
置と、これら2点を結ぶ線の基準線に対する角度とを求
め(1次計測)た後に、視覚手段を、求められた位置お
よび角度が基準位置および基準角度となるように移動さ
せ、この移動位置で2点の位置と角度とを再検出(2次
計測)し、さらに上記視覚手段の物体との距離を変化さ
せて2点の位置と角度とを再度検出(3次計測)するこ
とにより、位置および角度を補正する方法と成すこと
で、1次乃至3次の合計3回の検出によりロボット制御
精度および解像精度に左右されることなく補正精度の大
幅な向上を図ることができる位置検出方法の提供を目的
とする。
載の発明は、視覚手段の画像認識により物体の2点の位
置と、これら2点を結ぶ線の基準線に対する角度とを求
め(1次計測)た後に、視覚手段を、求められた位置お
よび角度が基準位置および基準角度となるように移動さ
せ、この移動位置で2点の位置と角度とを再検出(2次
計測)し、さらに上記視覚手段の物体との距離を変化さ
せて2点の位置と角度とを再度検出(3次計測)するこ
とにより、位置および角度を補正する方法と成すこと
で、1次乃至3次の合計3回の検出によりロボット制御
精度および解像精度に左右されることなく補正精度の大
幅な向上を図ることができる位置検出方法の提供を目的
とする。
【0007】この発明の請求項2記載の発明は、上記請
求項1記載の発明の目的と併せて、視覚手段の物体との
距離変化を、該視覚手段の物体への接近に設定すること
で、この視覚手段による解像度(解像精度)の向上を図
ることができる位置検出方法の提供を目的とする。
求項1記載の発明の目的と併せて、視覚手段の物体との
距離変化を、該視覚手段の物体への接近に設定すること
で、この視覚手段による解像度(解像精度)の向上を図
ることができる位置検出方法の提供を目的とする。
【0008】この発明の請求項3記載の発明は、上記請
求項2記載の発明の目的と併せて、ロボットに視覚手段
を装着することで、ロボット側が本来有する制御系およ
び位置検出機能を有効利用して上述の視覚手段を駆動す
ることができる位置検出方法の提供を目的とする。
求項2記載の発明の目的と併せて、ロボットに視覚手段
を装着することで、ロボット側が本来有する制御系およ
び位置検出機能を有効利用して上述の視覚手段を駆動す
ることができる位置検出方法の提供を目的とする。
【0009】この発明の請求項4記載の発明は、上記請
求項3記載の発明の目的と併せて、位置および角度の補
正はロボット系の制御誤差を補正することで、この制御
誤差の補正によりロボットアームを適切な位置、角度に
高精度にコントロールすることができる位置検出方法の
提供を目的とする。
求項3記載の発明の目的と併せて、位置および角度の補
正はロボット系の制御誤差を補正することで、この制御
誤差の補正によりロボットアームを適切な位置、角度に
高精度にコントロールすることができる位置検出方法の
提供を目的とする。
【0010】
【課題を解決するための手段】この発明の請求項1記載
の発明は、画像処理による物体の位置検出方法であっ
て、視覚手段の画像認識により物体の2点の位置と、こ
れら2点を結ぶ線の基準線に対する角度とを求め(1次
計測)、次に上記視覚手段を、求めた位置および角度が
基準位置および基準角度となるように移動させ、この移
動位置で2点の位置と角度とを再検出し(2次計測)、
次に上記視覚手段の物体との距離を変化させて2点の位
置と角度とを再度検出(3次計測)することにより位置
および角度を補正する位置検出方法であることを特徴と
する。
の発明は、画像処理による物体の位置検出方法であっ
て、視覚手段の画像認識により物体の2点の位置と、こ
れら2点を結ぶ線の基準線に対する角度とを求め(1次
計測)、次に上記視覚手段を、求めた位置および角度が
基準位置および基準角度となるように移動させ、この移
動位置で2点の位置と角度とを再検出し(2次計測)、
次に上記視覚手段の物体との距離を変化させて2点の位
置と角度とを再度検出(3次計測)することにより位置
および角度を補正する位置検出方法であることを特徴と
する。
【0011】この発明の請求項2記載の発明は、上記請
求項1記載の発明の構成と併せて、上記視覚手段の物体
との距離変化は、該視覚手段を物体に接近させる位置検
出方法であることを特徴とする。
求項1記載の発明の構成と併せて、上記視覚手段の物体
との距離変化は、該視覚手段を物体に接近させる位置検
出方法であることを特徴とする。
【0012】この発明の請求項3記載の発明は、上記請
求項2記載の発明の構成と併せて、ロボットに上記視覚
手段が装着された位置検出方法であることを特徴とす
る。
求項2記載の発明の構成と併せて、ロボットに上記視覚
手段が装着された位置検出方法であることを特徴とす
る。
【0013】この発明の請求項4記載の発明は、上記請
求項3記載の発明の構成と併せて、上記位置および角度
の補正はロボット系の制御誤差を補正する位置検出方法
であることを特徴とする。
求項3記載の発明の構成と併せて、上記位置および角度
の補正はロボット系の制御誤差を補正する位置検出方法
であることを特徴とする。
【0014】
【発明の作用及び効果】この発明の請求項1記載の発明
によれば、図1乃至図7にクレーム対応図で示すよう
に、画像処理による物体1の位置検出方法において、視
覚手段2の画像認識により物体1の2点a,b(図2に
示す画像上のポイント参照)の位置と、これら2点a,
b(ロボットのティーチングポイントにより予め定めら
れた2点のこと)を結ぶ線cの基準線d(詳しくは視覚
手段がもっているY軸基準線)に対する角度θとを求め
(1次計測)、次に上述の視覚手段2を図1に仮想線α
で示すように、求めた位置a=(x.y)および角度θ
が基準位置(0,0)および基準角度0度となるように
移動させ、この移動位置(図1の仮想線α参照)で2点
e,f(図3、図5に示す画像上のポイント参照)の位
置と角度とを再検出(2次計測)する。
によれば、図1乃至図7にクレーム対応図で示すよう
に、画像処理による物体1の位置検出方法において、視
覚手段2の画像認識により物体1の2点a,b(図2に
示す画像上のポイント参照)の位置と、これら2点a,
b(ロボットのティーチングポイントにより予め定めら
れた2点のこと)を結ぶ線cの基準線d(詳しくは視覚
手段がもっているY軸基準線)に対する角度θとを求め
(1次計測)、次に上述の視覚手段2を図1に仮想線α
で示すように、求めた位置a=(x.y)および角度θ
が基準位置(0,0)および基準角度0度となるように
移動させ、この移動位置(図1の仮想線α参照)で2点
e,f(図3、図5に示す画像上のポイント参照)の位
置と角度とを再検出(2次計測)する。
【0015】この時、1次計測が正しい時には図3に示
すようにe=(0,0)、θ2 =0となり、1次計測が
正しくない時には図5、図7に示すようにe=(x2 ,
y2)、θ=θ2 (但しθ2 ≠0)となる。次に上述の
視覚手段2の物体1との距離を図1に仮想線βで示すよ
うに近づく方向もしくは遠ざかる方向(図示せず)に変
化させて2点g,hの位置と角度とを再度検出(3次計
測)する。
すようにe=(0,0)、θ2 =0となり、1次計測が
正しくない時には図5、図7に示すようにe=(x2 ,
y2)、θ=θ2 (但しθ2 ≠0)となる。次に上述の
視覚手段2の物体1との距離を図1に仮想線βで示すよ
うに近づく方向もしくは遠ざかる方向(図示せず)に変
化させて2点g,hの位置と角度とを再度検出(3次計
測)する。
【0016】この3次計測の際、先の1次計測が正しい
時には図4に示すようにg=(0,0)、θ3 =0とな
り、1次計測が正しくない時には図6、図7に示すよう
にg=(x3 ,y3 )、θ=θ3 (但しθ3 ≠0)とな
る。さらに上述の2次計測、3次計測の位置データおよ
び角度データとしての(x2 ,y2 )、θ2 、(x3 ,
y3 )、θ3 に基づいて位置および角度の補正を実行す
る。
時には図4に示すようにg=(0,0)、θ3 =0とな
り、1次計測が正しくない時には図6、図7に示すよう
にg=(x3 ,y3 )、θ=θ3 (但しθ3 ≠0)とな
る。さらに上述の2次計測、3次計測の位置データおよ
び角度データとしての(x2 ,y2 )、θ2 、(x3 ,
y3 )、θ3 に基づいて位置および角度の補正を実行す
る。
【0017】このように上述の1次計測、2次計測、3
次計測の合計3回の検出により、その検出データに基づ
いた補正(X軸上の位置、Y軸上の位置、軸ずれ、角度
ずれの補正)を実行するので、ロボット制御精度および
解像精度に左右されることなく、補正精度の大幅な向上
を図ることができる効果がある。
次計測の合計3回の検出により、その検出データに基づ
いた補正(X軸上の位置、Y軸上の位置、軸ずれ、角度
ずれの補正)を実行するので、ロボット制御精度および
解像精度に左右されることなく、補正精度の大幅な向上
を図ることができる効果がある。
【0018】この発明の請求項2記載の発明によれば、
上記請求項1記載の発明の効果と併せて、上述の視覚手
段の物体との距離変化は、該視覚手段を物体に対して接
近させるので、視覚手段による解像度(解像精度)の向
上を図ることができる効果がある。
上記請求項1記載の発明の効果と併せて、上述の視覚手
段の物体との距離変化は、該視覚手段を物体に対して接
近させるので、視覚手段による解像度(解像精度)の向
上を図ることができる効果がある。
【0019】この発明の請求項3記載の発明によれば、
上記請求項2記載の発明の効果と併せて、ロボットに視
覚手段を装着したので、ロボット側が本来有する制御系
および位置検出機能を有効利用して上述の視覚手段を駆
動することができる効果がある。
上記請求項2記載の発明の効果と併せて、ロボットに視
覚手段を装着したので、ロボット側が本来有する制御系
および位置検出機能を有効利用して上述の視覚手段を駆
動することができる効果がある。
【0020】この発明の請求項4記載の発明によれば、
上記請求項3記載の発明の効果と併せて、上述の位置お
よび角度の補正はロボット系の制御誤差を補正するの
で、このロボット系の制御誤差の補正によりロボットア
ームを適切な位置、角度を高精度にコントロールするこ
とができる効果がある。
上記請求項3記載の発明の効果と併せて、上述の位置お
よび角度の補正はロボット系の制御誤差を補正するの
で、このロボット系の制御誤差の補正によりロボットア
ームを適切な位置、角度を高精度にコントロールするこ
とができる効果がある。
【0021】
【実施例】この発明の一実施例を以下図面に基づいて詳
述する。図8は本発明の位置検出方法に用いる位置検出
装置を示し、この位置検出装置11はロボット架台12
に搭載された6軸タイプのロボット13と、このロボッ
ト13のロボットアーム14先端に締結部15を介して
取付けられたロボットハンド16、このロボットハンド
16に備えられた複数のナットランナ17とを有し、ナ
ットランナ17配設部にはブラケット(図示せず)を介
して視覚手段としてのCCDカメラ2を取付け、このC
CDカメラ2の画像認識により物体1(被測定物体)の
2点の位置a,b(図2参照)と、これら2点a,bを
結ぶ線cの基準線dに対する角度θ(図2参照)とを求
めるように構成している。
述する。図8は本発明の位置検出方法に用いる位置検出
装置を示し、この位置検出装置11はロボット架台12
に搭載された6軸タイプのロボット13と、このロボッ
ト13のロボットアーム14先端に締結部15を介して
取付けられたロボットハンド16、このロボットハンド
16に備えられた複数のナットランナ17とを有し、ナ
ットランナ17配設部にはブラケット(図示せず)を介
して視覚手段としてのCCDカメラ2を取付け、このC
CDカメラ2の画像認識により物体1(被測定物体)の
2点の位置a,b(図2参照)と、これら2点a,bを
結ぶ線cの基準線dに対する角度θ(図2参照)とを求
めるように構成している。
【0022】このように構成した位置検出装置11を用
いての位置検出方法について以下に詳述する。なお、以
下の説明においては前述の1次計測、2次計測、3次計
測(但し次の各計測については発明の作用及び効果の項
で既述した内容と同一)後における補正値の計算方法
(ロボットでの計算に置換して)示す。
いての位置検出方法について以下に詳述する。なお、以
下の説明においては前述の1次計測、2次計測、3次計
測(但し次の各計測については発明の作用及び効果の項
で既述した内容と同一)後における補正値の計算方法
(ロボットでの計算に置換して)示す。
【0023】図9において、p1は1次計測時の指令位
置、p2は2次計測時の指令位置、p3は3次計測時の
指令位置(対象位置)をそれぞれ示し、r1は1次計測
時の取込位置、r2は2次計測時の取込位置r3は3次
計測時の取込位置をそれぞれ示す。ここに上記各指令位
置p1,p2,p3の成分は次の[数1]により表すこ
とができる。
置、p2は2次計測時の指令位置、p3は3次計測時の
指令位置(対象位置)をそれぞれ示し、r1は1次計測
時の取込位置、r2は2次計測時の取込位置r3は3次
計測時の取込位置をそれぞれ示す。ここに上記各指令位
置p1,p2,p3の成分は次の[数1]により表すこ
とができる。
【0024】
【数1】
【0025】上述の[数1]においてx,y,zは三次
元のロボットベース座標のX軸、Y軸、Z軸を示し、
「01」「02」「03」は各指令位置p1,p2,p
3に対応する指令値を示し、tx,ty,tzは各軸ま
わりの角度を示し、特にtyが請求項で示した角度θを
意味する。また上記各取込位置r1,r2,r3の成分
は次の[数2]により表すことができる。
元のロボットベース座標のX軸、Y軸、Z軸を示し、
「01」「02」「03」は各指令位置p1,p2,p
3に対応する指令値を示し、tx,ty,tzは各軸ま
わりの角度を示し、特にtyが請求項で示した角度θを
意味する。また上記各取込位置r1,r2,r3の成分
は次の[数2]により表すことができる。
【0026】
【数2】
【0027】上述の[数2]において、x,y,zは
[数1]と同様に三次元のロボットベース座標のX軸、
Y軸、Z軸を示し、tx,ty,tzも同様に各軸まわ
りの角度を示し、「1」「2」「3」は各位置r1,r
2,r3に対応する実行値を示し、特にtyが請求項で
示した角度θを意味する。上述の各指令値p1,p2,
p3に対するロボット13の動作ずれベクトルは次に
[数3]で示すようになる。
[数1]と同様に三次元のロボットベース座標のX軸、
Y軸、Z軸を示し、tx,ty,tzも同様に各軸まわ
りの角度を示し、「1」「2」「3」は各位置r1,r
2,r3に対応する実行値を示し、特にtyが請求項で
示した角度θを意味する。上述の各指令値p1,p2,
p3に対するロボット13の動作ずれベクトルは次に
[数3]で示すようになる。
【0028】
【図3】
【0029】最終的な動作補正値は、上述のずれの逆ベ
クトルとなり、本来、マイナス動作ずれ3となるはずで
あるが、ロボット13はその補正指令値で動作させても
重力や製作誤差等の要因により再びずれが発生する。そ
こで、得られた2つの動作ずれベクトル(精度の良い動
作ずれ2,動作ずれ3)の相加平均ベクトル(2つずれ
2,3の中央値)を求め、この値を近似的に補正値とす
る。この補正ベクトルは次の[数4]で示すことができ
る。
クトルとなり、本来、マイナス動作ずれ3となるはずで
あるが、ロボット13はその補正指令値で動作させても
重力や製作誤差等の要因により再びずれが発生する。そ
こで、得られた2つの動作ずれベクトル(精度の良い動
作ずれ2,動作ずれ3)の相加平均ベクトル(2つずれ
2,3の中央値)を求め、この値を近似的に補正値とす
る。この補正ベクトルは次の[数4]で示すことができ
る。
【0030】
【数4】
【0031】ここで図10のずれ補正2に相当するr2
p2のベクトルを成分で表わすと次の[数5]の如くな
る。
p2のベクトルを成分で表わすと次の[数5]の如くな
る。
【0032】
【数5】
【0033】また図10のずれ補正3に相当するr3p
3のベクトルを成分で表わすと次の[数6]の如くな
る。
3のベクトルを成分で表わすと次の[数6]の如くな
る。
【0034】
【数6】
【0035】なお上述の[数5][数6]において
「p」「r」の前に付した「0」はロボットベース座標
の原点としての零を示す。而して先の[数4]に[数
5][数6]を代入してベクトル式を整理することで補
正ベクトルを求めると次に[数7]で示すようになる。
「p」「r」の前に付した「0」はロボットベース座標
の原点としての零を示す。而して先の[数4]に[数
5][数6]を代入してベクトル式を整理することで補
正ベクトルを求めると次に[数7]で示すようになる。
【0036】
【数7】
【0037】したがって、図11に示す最終的なロボッ
ト13への指令値(dest)はor3のベクトルに対して
上述の補正ベクトルかを加算した値となるので、次の
[数8]で表わすことができる。
ト13への指令値(dest)はor3のベクトルに対して
上述の補正ベクトルかを加算した値となるので、次の
[数8]で表わすことができる。
【0038】
【数8】
【0039】すなわち、補正をしなかった場合には座標
原点0からr3の方向に向って動くか、上述の補正によ
り座標原点0から対象位置としてのp3の方向に向って
動かすことができる。
原点0からr3の方向に向って動くか、上述の補正によ
り座標原点0から対象位置としてのp3の方向に向って
動かすことができる。
【0040】以上要するに本発明の位置検出方法によれ
ば、視覚手段(CCDカメラ2参照)の画像認識により
物体1の2点の位置と、これら2点を結ぶ線の基準線に
対する角度(数2中のty1参照)とを求め(1次計
測)、次の視覚手段(CCDカメラ2参照)を、求めた
位置および角度が基準位置および基準角度となるように
移動して、この移動位置で2点の位置と角度(数2中の
ty2参照)とを再検出(2次計測)する。
ば、視覚手段(CCDカメラ2参照)の画像認識により
物体1の2点の位置と、これら2点を結ぶ線の基準線に
対する角度(数2中のty1参照)とを求め(1次計
測)、次の視覚手段(CCDカメラ2参照)を、求めた
位置および角度が基準位置および基準角度となるように
移動して、この移動位置で2点の位置と角度(数2中の
ty2参照)とを再検出(2次計測)する。
【0041】次に上述の視覚手段(CCDカメラ2参
照)の物体1との距離を変化させて2点の位置と角度
(数2中のty3参照)とを再度検出(3次計測)す
る。さらに上述の2次計測、3次計測の位置データおよ
び角度データに基づいて位置および角度の補正(数7で
示す補正ベクトル、数8で示す最終指令値destのベクト
ル参照)を実行する。
照)の物体1との距離を変化させて2点の位置と角度
(数2中のty3参照)とを再度検出(3次計測)す
る。さらに上述の2次計測、3次計測の位置データおよ
び角度データに基づいて位置および角度の補正(数7で
示す補正ベクトル、数8で示す最終指令値destのベクト
ル参照)を実行する。
【0042】このように従来の1次計測のみの方法に加
えて2次計測、3次計測を追加実行し、合計3回の検出
により、その検出データに基づいた補正(X軸上の位
置、Y軸上の位置、軸ずれ、角度ずれの補正)を実行す
るので、ロボット制御精度およびCCDカメラ2の解像
精度に左右されることなく、補正精度の大幅な向上を図
ることができる効果がある。
えて2次計測、3次計測を追加実行し、合計3回の検出
により、その検出データに基づいた補正(X軸上の位
置、Y軸上の位置、軸ずれ、角度ずれの補正)を実行す
るので、ロボット制御精度およびCCDカメラ2の解像
精度に左右されることなく、補正精度の大幅な向上を図
ることができる効果がある。
【0043】また上述の視覚手段(CCDカメラ2参
照)の物体1との距離変化は、この視覚手段を物体1に
対して接近させるので、視覚手段による解像度(解像精
度)の向上を図ることができる効果がある。
照)の物体1との距離変化は、この視覚手段を物体1に
対して接近させるので、視覚手段による解像度(解像精
度)の向上を図ることができる効果がある。
【0044】さらに、ロボット13に視覚手段(CCD
カメラ2参照)を装着したので、ロボット13側が本来
有する制御系および位置検出機能を有効利用して上述の
視覚手段を駆動することができる効果がある。加えて、
上述の位置および角度の補正はロボット系の制御誤差を
補正するので、このロボット系の制御誤差の補正により
ボットアーム14(実施例ではその先端のナットランナ
17も含む)を適切な位置、角度に高精度にコントロー
ルすることができる効果がある。
カメラ2参照)を装着したので、ロボット13側が本来
有する制御系および位置検出機能を有効利用して上述の
視覚手段を駆動することができる効果がある。加えて、
上述の位置および角度の補正はロボット系の制御誤差を
補正するので、このロボット系の制御誤差の補正により
ボットアーム14(実施例ではその先端のナットランナ
17も含む)を適切な位置、角度に高精度にコントロー
ルすることができる効果がある。
【0045】この発明の構成と、上述の実施例との対応
において、この発明の視覚手段は、実施例のCCDカメ
ラ2に対応し、以下同様に、ロボットは、6軸タイプの
ロボット13に対応するも、この発明は、上述の実施例
の構成のみに限定されるものではない。
において、この発明の視覚手段は、実施例のCCDカメ
ラ2に対応し、以下同様に、ロボットは、6軸タイプの
ロボット13に対応するも、この発明は、上述の実施例
の構成のみに限定されるものではない。
【図1】本発明の位置検出方法を示すクレーム対応図。
【図2】1次計測を示すクレーム対応図。
【図3】1次計測が正しい場合の2次計測を示すクレー
ム対応図。
ム対応図。
【図4】1次計測が正しい場合の3次計測を示すクレー
ム対応図。
ム対応図。
【図5】1次計測が正しくない場合の2次計測を示すク
レーム対応図。
レーム対応図。
【図6】1次計測が正しくない場合の3次計測を示すク
レーム対応図。
レーム対応図。
【図7】1次計測が正しくない場合の説明図。
【図8】本発明の位置検出方法に用いる位置検出装置の
説明図。
説明図。
【図9】動作ずれを示す説明図。
【図10】ずれ補正を示す説明図。
【図11】最終指令値を示す説明図。
【図12】従来の位置検出方法を示す説明図。
1…物体 2…CCDカメラ 13…ロボット a,b…2点 c…2点を結ぶ線 d…基準線 e,f…2点 g,h…2点 θ,θ2 ,θ3 …角度
Claims (4)
- 【請求項1】画像処理による物体の位置検出方法であっ
て、視覚手段の画像認識により物体の2点の位置と、こ
れら2点を結ぶ線の基準線に対する角度とを求め、次に
上記視覚手段を、求めた位置および角度が基準位置およ
び基準角度となるように移動させ、この移動位置で2点
の位置と角度とを再検出し、次に上記視覚手段の物体と
の距離を変化させて2点の位置と角度とを再度検出する
ことにより位置および角度を補正する位置検出方法。 - 【請求項2】上記視覚手段の物体との距離変化は、該視
覚手段を物体に接近させる請求項1記載の位置検出方
法。 - 【請求項3】ロボットに上記視覚手段が装着された請求
項2記載の位置検出方法。 - 【請求項4】上記位置および角度の補正はロボット系の
制御誤差を補正する請求項3記載の位置検出方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP02989996A JP3562096B2 (ja) | 1996-01-23 | 1996-01-23 | 位置検出方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP02989996A JP3562096B2 (ja) | 1996-01-23 | 1996-01-23 | 位置検出方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH09196622A true JPH09196622A (ja) | 1997-07-31 |
| JP3562096B2 JP3562096B2 (ja) | 2004-09-08 |
Family
ID=12288835
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP02989996A Expired - Fee Related JP3562096B2 (ja) | 1996-01-23 | 1996-01-23 | 位置検出方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3562096B2 (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100752989B1 (ko) * | 2006-06-02 | 2007-08-30 | 주식회사 유진엠에스 | 2차원 영상 및 3차원 영상 겸용 물체 측정장치 |
| CN108839024A (zh) * | 2018-06-29 | 2018-11-20 | 易思维(杭州)科技有限公司 | 一种适用于汽车车门自动装载过程的视觉引导方法 |
| CN109059769A (zh) * | 2018-08-31 | 2018-12-21 | 中国科学院力学研究所 | 一种非接触式受电弓升降弓臂杆位置关系测量方法 |
| JP2019014410A (ja) * | 2017-07-10 | 2019-01-31 | 新明工業株式会社 | トー調整ロボット |
| WO2024242296A1 (ko) * | 2023-05-22 | 2024-11-28 | (주)코윈테크 | 2d 비젼을 활용한 샤프트 축의 도킹 시스템 |
-
1996
- 1996-01-23 JP JP02989996A patent/JP3562096B2/ja not_active Expired - Fee Related
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100752989B1 (ko) * | 2006-06-02 | 2007-08-30 | 주식회사 유진엠에스 | 2차원 영상 및 3차원 영상 겸용 물체 측정장치 |
| JP2019014410A (ja) * | 2017-07-10 | 2019-01-31 | 新明工業株式会社 | トー調整ロボット |
| CN108839024A (zh) * | 2018-06-29 | 2018-11-20 | 易思维(杭州)科技有限公司 | 一种适用于汽车车门自动装载过程的视觉引导方法 |
| CN109059769A (zh) * | 2018-08-31 | 2018-12-21 | 中国科学院力学研究所 | 一种非接触式受电弓升降弓臂杆位置关系测量方法 |
| WO2024242296A1 (ko) * | 2023-05-22 | 2024-11-28 | (주)코윈테크 | 2d 비젼을 활용한 샤프트 축의 도킹 시스템 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3562096B2 (ja) | 2004-09-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP1215017B1 (en) | Robot teaching apparatus | |
| US11554494B2 (en) | Device for acquiring a position and orientation of an end effector of a robot | |
| JP2003117861A (ja) | ロボットの位置補正システム | |
| JPH03136780A (ja) | スカラ型ロボットの機構誤差補正方法 | |
| EP3967459A1 (en) | Coordinate system calibration method, device, and computer readable medium | |
| JP2001050741A (ja) | ロボットのキャリブレーション方法及び装置 | |
| CN114012719A (zh) | 一种六轴机器人的零点标定方法及系统 | |
| JP3466340B2 (ja) | 自立走行ロボットの三次元位置姿勢較正方法 | |
| JPH09196622A (ja) | 位置検出方法 | |
| JP3511551B2 (ja) | ロボットアームの状態検出方法および検出システム | |
| JP2000055664A (ja) | 姿勢を計測する機能を持つ多関節型ロボット・システム、ターン・テーブルを校正基準に用いてジャイロの計測精度を検証する方法及びシステム、及び、n軸で構成されるターン・テーブルのキャリブレーションを行う装置及び方法 | |
| JP3169174B2 (ja) | 作業経路追従式ロボットマニピュレータの教示データ修正方法 | |
| JP2012006125A (ja) | 水平多関節ロボットの座標値補正方法 | |
| JPH03161223A (ja) | ワークのはめ合い方法 | |
| JPS61133409A (ja) | ロボツト定数の自動補正方式 | |
| JP2003121112A (ja) | 位置検出装置 | |
| JP2919135B2 (ja) | ロボットの位置補正方法 | |
| JP6628170B1 (ja) | 計測システム及び計測方法 | |
| JPH04269194A (ja) | 平面計測方法 | |
| JPH0774964B2 (ja) | ロボットの位置決め誤差補正方法 | |
| KR100773271B1 (ko) | 단일 카메라를 이용한 이동 로봇의 위치 측정 방법 | |
| WO2021210540A1 (ja) | 座標系設定システム及び位置姿勢計測システム | |
| JP4519295B2 (ja) | ワークの位置ずれの測定方法 | |
| JPH0260474B2 (ja) | ||
| CN116512278B (zh) | 基于虚拟目标点的机械臂末端直线运动控制方法及系统 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040419 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040511 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040524 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090611 Year of fee payment: 5 |
|
| LAPS | Cancellation because of no payment of annual fees |