JPH012893A - 産業用ロボットの作動領域制限方法 - Google Patents
産業用ロボットの作動領域制限方法Info
- Publication number
- JPH012893A JPH012893A JP62-156505A JP15650587A JPH012893A JP H012893 A JPH012893 A JP H012893A JP 15650587 A JP15650587 A JP 15650587A JP H012893 A JPH012893 A JP H012893A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- arm
- image
- operating area
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
発明の要約
視覚付ロボット・システムにおいて、ロボット・アーム
の像と作業座標で指定された作動領域とを簡単なパター
ン・マツチングの手法で比較することにより、ロボット
の動作を制限する方法。
の像と作業座標で指定された作動領域とを簡単なパター
ン・マツチングの手法で比較することにより、ロボット
の動作を制限する方法。
操作者にとってわかりやすい作業座標で、;(雑な領域
も容易に指定できる。関節角から作動領域を求めるとき
に用いる順変換の計算も不要で、アームの構造の1!雑
さにかかわらず適用できる。
も容易に指定できる。関節角から作動領域を求めるとき
に用いる順変換の計算も不要で、アームの構造の1!雑
さにかかわらず適用できる。
発明の背景
技術分野
この発明は、産業用ロボットの作動領域を制限する方法
に関する。
に関する。
従来技術とその問題点
産業用ロボットの作動領域はその構造によって自ずから
決まるものではあるが、安全のためや使いやすさのため
にユーザ側で制限できるようにしたものも少なくない。
決まるものではあるが、安全のためや使いやすさのため
にユーザ側で制限できるようにしたものも少なくない。
産業用ロボットの作動領域を制限するための従来の方法
には、ストッパを使う機械的方法やソフトウェア的に制
限する方法等がある。
には、ストッパを使う機械的方法やソフトウェア的に制
限する方法等がある。
前者の機械的方法はロボット・アームがストッパに衝突
するので衝撃によってロボットにガタが生じやすいとい
う問題がある。
するので衝撃によってロボットにガタが生じやすいとい
う問題がある。
後背のソフトウェアによる方法の1つにロボット・アー
ムの関節角を用いて制限値を指定する方法があるが、こ
れは操作者が直観的にその作動領域をつかみにくいとい
う問題がある。この問題を解決するために1作業座標系
で制限値を指定する方法もあるが、この方法によると各
アームの位置を関節角から求めなければならず、そのた
めの計算部が必要で、しかもロボットの構造が複雑にな
るとこの計算も複雑になり、導出に時間と手間がかかる
という問題点があった。
ムの関節角を用いて制限値を指定する方法があるが、こ
れは操作者が直観的にその作動領域をつかみにくいとい
う問題がある。この問題を解決するために1作業座標系
で制限値を指定する方法もあるが、この方法によると各
アームの位置を関節角から求めなければならず、そのた
めの計算部が必要で、しかもロボットの構造が複雑にな
るとこの計算も複雑になり、導出に時間と手間がかかる
という問題点があった。
発明の概要
発明の目的
この発明は2作業座標系で制限値を指定することができ
るとともに、アーム位置を求めるための1(雑な計算等
を必要としない簡便な産業用ロボットの作動領域制限方
法を提供することを目的とする。
るとともに、アーム位置を求めるための1(雑な計算等
を必要としない簡便な産業用ロボットの作動領域制限方
法を提供することを目的とする。
発明の構成9作用および効果
この発明は、産業用ロボット、このロボットを制御する
ロボット・コントローラ、および視覚センサからの映像
信号を処理する画像処理装置を備えた視覚ロボット・シ
ステムにおいて、上記ロボットの作動部分を含む領域を
視野内に把えることができるように上記視覚センサを配
置し、視覚センサから得られるロボット像と作業座標系
で指定されたロボットの作動領域とを比較し、ロボット
像が指定された作動領域外にあると判定したときに所定
の信号を出力することを特徴とする。
ロボット・コントローラ、および視覚センサからの映像
信号を処理する画像処理装置を備えた視覚ロボット・シ
ステムにおいて、上記ロボットの作動部分を含む領域を
視野内に把えることができるように上記視覚センサを配
置し、視覚センサから得られるロボット像と作業座標系
で指定されたロボットの作動領域とを比較し、ロボット
像が指定された作動領域外にあると判定したときに所定
の信号を出力することを特徴とする。
この発明によると、まず作業座標系で作動領域を人力し
1画像処理装置に記憶させる。次にロボットとその周辺
(すでに指定した作動領域がその中に含まれている)を
視野内に収めるように配置された視覚センサによってロ
ボットの動きをセンスし、その映像信号を画像処理装置
に与えることによりロボット像を得る。画像処理装置で
処理されたロボット・アーム像が指定された作動領域内
にあるかどうかを判断し、もし作動領域外にあればロボ
ット中コントローラによってロボットの動作を停市する
等の処理を行なう。
1画像処理装置に記憶させる。次にロボットとその周辺
(すでに指定した作動領域がその中に含まれている)を
視野内に収めるように配置された視覚センサによってロ
ボットの動きをセンスし、その映像信号を画像処理装置
に与えることによりロボット像を得る。画像処理装置で
処理されたロボット・アーム像が指定された作動領域内
にあるかどうかを判断し、もし作動領域外にあればロボ
ット中コントローラによってロボットの動作を停市する
等の処理を行なう。
したがって操作者にわかりやすい作業座標系で制限すべ
き作動領域を指定でき、従来例のように各アーム毎の位
置計算も不要となる。またアームの像はある幅をもった
物体であるのでこれまでチエツクできなかった範囲も十
分カバーでき1作業性、安全性が向上する。ロボット・
アーム像が指定された作動領域内にあるかどうかは比較
的簡単なパターン・マツチングの手法で1jJ能である
から、現在の画像処理装置の能力で充分である。
き作動領域を指定でき、従来例のように各アーム毎の位
置計算も不要となる。またアームの像はある幅をもった
物体であるのでこれまでチエツクできなかった範囲も十
分カバーでき1作業性、安全性が向上する。ロボット・
アーム像が指定された作動領域内にあるかどうかは比較
的簡単なパターン・マツチングの手法で1jJ能である
から、現在の画像処理装置の能力で充分である。
実施例の説明
この発明を平面作業型ロボットを含むシステムに適用し
た実施例について詳述する。
た実施例について詳述する。
第1図はロボット・システムの全体を概略的に示すもの
である。ロボット1は、ベース2上に軸支され水平面内
で回転する第1アーム11. この第1アーム11の
先端部に軸支され水平面内で回転する第2アーム12.
この第2アーム12の先端部に軸支され1回転する
とともにその軸方向に運動する回転直動リンク13.お
よび回転直動リンク13に固定されたハンド14によっ
て構成されている。
である。ロボット1は、ベース2上に軸支され水平面内
で回転する第1アーム11. この第1アーム11の
先端部に軸支され水平面内で回転する第2アーム12.
この第2アーム12の先端部に軸支され1回転する
とともにその軸方向に運動する回転直動リンク13.お
よび回転直動リンク13に固定されたハンド14によっ
て構成されている。
二次元視覚認識用カメラ(視覚センサ)7は。
ロボット1およびロボットの指定された作動領域の全部
をセンスできるように配置されている。たとえばカメラ
7は天井や壁などに設置されている。カメラ7によって
得られたロボット像を表わす信号は画像処理装置8によ
って処理される。カメラ座標系と作業座標系のキャリブ
レーションが行なわれ(公知の種々の方法がある)その
データが画像処理装置8に記憶されている。画像処理装
置8は、ロボット・コントローラ9に接続されている。
をセンスできるように配置されている。たとえばカメラ
7は天井や壁などに設置されている。カメラ7によって
得られたロボット像を表わす信号は画像処理装置8によ
って処理される。カメラ座標系と作業座標系のキャリブ
レーションが行なわれ(公知の種々の方法がある)その
データが画像処理装置8に記憶されている。画像処理装
置8は、ロボット・コントローラ9に接続されている。
ロボット中コントローラ9によりロボット1が駆動制御
される。
される。
ロボットのアーム11.12の端部にはカメラ7がセン
スしやすいように認識用マークloa、 lOb。
スしやすいように認識用マークloa、 lOb。
10cが付けられている。
上記のようなロボットΦアーム11.12の作動領域を
制限する処理手順が第2図に示されている。
制限する処理手順が第2図に示されている。
また、カメラ7および画像処理装置8によって得られた
アーム像M(上記マークIOa〜10cの像10A〜I
OCを含む)と指定された作動領域A(/為ツチングで
示す)が作業座標系XYとともに第3図に示されている
。
アーム像M(上記マークIOa〜10cの像10A〜I
OCを含む)と指定された作動領域A(/為ツチングで
示す)が作業座標系XYとともに第3図に示されている
。
まず操作者がロボット1の作動領域を作業座標系で指定
するので、そのパターン(第3図の符号Aで示される領
域)が画像処理装置8内に記憶される(ステップ21)
。作動領域の指定は公知の入ノJ装置(たとえばキーボ
ード、マウス、これらとCRTの組合せ、カメラ7等)
を用いて行なわれる。
するので、そのパターン(第3図の符号Aで示される領
域)が画像処理装置8内に記憶される(ステップ21)
。作動領域の指定は公知の入ノJ装置(たとえばキーボ
ード、マウス、これらとCRTの組合せ、カメラ7等)
を用いて行なわれる。
次にロボット1に所定の動作を行なわせ、このロボット
の動作(ロボット・アーム11.12の位置すなわち認
識用マークlOa〜I(lc)がカメラ7で把えられ、
その映像信号が画像処理装置8に与えられる(ステップ
22)。画像処理装置8は人力する映像信号に基づいて
ロボット・アームの像Mを作成する(ステップ23)。
の動作(ロボット・アーム11.12の位置すなわち認
識用マークlOa〜I(lc)がカメラ7で把えられ、
その映像信号が画像処理装置8に与えられる(ステップ
22)。画像処理装置8は人力する映像信号に基づいて
ロボット・アームの像Mを作成する(ステップ23)。
ロボット・アーム像Mの作成はたとえば次のようにして
行なわれる。”認識されたマーク間を直線で結び、あら
かじめ人力されているリンク・データ(たとえばリンク
長、リンク幅など)を使ってその線図に肉付けをしてロ
ボット像Mとする。肉付けの方法には、最も簡単なもの
として長方形に拡大するものがある。この場合には第3
図に破線で示す実際のアーム像と比べ多少の、、!1差
が生じることもあるが、大きな問題にはならない。認識
マークlOa〜lOcはそれからアーム像がなるべく正
しく復元できるように選ぶことが!Tf要である。
行なわれる。”認識されたマーク間を直線で結び、あら
かじめ人力されているリンク・データ(たとえばリンク
長、リンク幅など)を使ってその線図に肉付けをしてロ
ボット像Mとする。肉付けの方法には、最も簡単なもの
として長方形に拡大するものがある。この場合には第3
図に破線で示す実際のアーム像と比べ多少の、、!1差
が生じることもあるが、大きな問題にはならない。認識
マークlOa〜lOcはそれからアーム像がなるべく正
しく復元できるように選ぶことが!Tf要である。
ロボット・アーム像N1は作業座標系において作成され
る。
る。
画像処理装置8はこのようにして作成されたロボット・
アーム像Mを作動領域Aとパターン・マツチングの手法
によって比較する(ステップ24)。この手法は画像処
理装置8に高度の機能を要求するものではなく簡単なも
のである。比較の結果、ロボット・アームが作動領域内
にあれば(第3図参照)、そのまま動作を続行し、一部
でも領域外にある場合には(後述する第4図参照)、コ
ントローラ9を通してロボット1を停止させたり、軌道
を修正する等の処理をする(ステップ25.26)。ス
テップ22〜25の処理はロボット・アームの種々の動
作位置において必要回数繰返して行なわれる。この処理
はロボット1の実際の作業に先たって行なっても1作業
中に行なってもいずれでもよい。
アーム像Mを作動領域Aとパターン・マツチングの手法
によって比較する(ステップ24)。この手法は画像処
理装置8に高度の機能を要求するものではなく簡単なも
のである。比較の結果、ロボット・アームが作動領域内
にあれば(第3図参照)、そのまま動作を続行し、一部
でも領域外にある場合には(後述する第4図参照)、コ
ントローラ9を通してロボット1を停止させたり、軌道
を修正する等の処理をする(ステップ25.26)。ス
テップ22〜25の処理はロボット・アームの種々の動
作位置において必要回数繰返して行なわれる。この処理
はロボット1の実際の作業に先たって行なっても1作業
中に行なってもいずれでもよい。
1、記の例では、認識用マーク1Oa−10cの検出に
基づいてロボット・アーム像を作成しているが1画像処
理装置8が対安物体の輪郭線検出または領域検出が可能
なものの場合には、この輪郭検出または領域検出の手法
によって′ロボット像Mを作成し、得られたロボット像
Mと作動領域Aとを、上記同様にパターン・マツチング
により比較する。画像処理装置のソフトウェアがより複
雑になるが、第4図に示すように正確なロボット像Mが
得られる。
基づいてロボット・アーム像を作成しているが1画像処
理装置8が対安物体の輪郭線検出または領域検出が可能
なものの場合には、この輪郭検出または領域検出の手法
によって′ロボット像Mを作成し、得られたロボット像
Mと作動領域Aとを、上記同様にパターン・マツチング
により比較する。画像処理装置のソフトウェアがより複
雑になるが、第4図に示すように正確なロボット像Mが
得られる。
上記実施例では回転関節で構成された甲面作業型ロボッ
トについて述べたが、直交座標型1円筒座標型などの他
のタイプの平面作業型ロボットに対しても、さらに立体
的な作業を行なうロボットに対してもこの発明は同様に
適用できる。
トについて述べたが、直交座標型1円筒座標型などの他
のタイプの平面作業型ロボットに対しても、さらに立体
的な作業を行なうロボットに対してもこの発明は同様に
適用できる。
また、上記実施例では1作動領域の制限を作業座標系の
xY・1i、面内で行なっているが、カメラの位置を変
えたり、三次元視覚装置を用いることにより、Z軸方向
の制限を行なうことも6丁能である。
xY・1i、面内で行なっているが、カメラの位置を変
えたり、三次元視覚装置を用いることにより、Z軸方向
の制限を行なうことも6丁能である。
以上のようにこの発明の方法によると、操作者にとって
わかりやすい作業座標系で複雑な作動領域でも容易に指
定できることになる。しかも作業座標系において各アー
ムの位置を求める=1°算を必要とすることがない。そ
して1隻雑な構造のロボフト・アームをもつものであっ
ても現在の視覚システムの能力で十分に容易に実現でき
る。さらに計算式を使う従来方法よりも正確である。
わかりやすい作業座標系で複雑な作動領域でも容易に指
定できることになる。しかも作業座標系において各アー
ムの位置を求める=1°算を必要とすることがない。そ
して1隻雑な構造のロボフト・アームをもつものであっ
ても現在の視覚システムの能力で十分に容易に実現でき
る。さらに計算式を使う従来方法よりも正確である。
第1図はロボット舎システムの全体を斜視的に示す構成
図、第2図は作動領域制限処理−r、順を示すフロー・
チャート、第3図および第4図は作成されたロボット・
アーム像と指定された作動領域とを示すものである。 1・・・平面作業型ロボット。 2・・・ベース。 7・・・二次元認識カメラ。 8・・・画像処理装置。 9・・・ロボット・コントローラ。 10 a−10c−−・認識用マーク。 11・・・第1アーム。 12・・・第2アーム。 A・・・指定された作動領域。 〜1・・・作成されたロボット・アーム像。 以 上 特許出願人 立石電機株式会社 代 理 人 弁理士 牛久 健、’71 (外1名)
第1図 第2図 第3図
図、第2図は作動領域制限処理−r、順を示すフロー・
チャート、第3図および第4図は作成されたロボット・
アーム像と指定された作動領域とを示すものである。 1・・・平面作業型ロボット。 2・・・ベース。 7・・・二次元認識カメラ。 8・・・画像処理装置。 9・・・ロボット・コントローラ。 10 a−10c−−・認識用マーク。 11・・・第1アーム。 12・・・第2アーム。 A・・・指定された作動領域。 〜1・・・作成されたロボット・アーム像。 以 上 特許出願人 立石電機株式会社 代 理 人 弁理士 牛久 健、’71 (外1名)
第1図 第2図 第3図
Claims (1)
- 【特許請求の範囲】 産業用ロボット、このロボットを制御するロボット・コ
ントローラ、および視覚センサからの映像信号を処理す
る画像処理装置を備えた視覚ロボット・システムにおい
て、 上記ロボットの作動部分を含む領域を視野内に把えるこ
とができるように上記視覚センサを配置し、 視覚センサから得られるロボット像と作業座標系で指定
されたロボットの作動領域とを比較し、ロボット像が指
定された作動領域外にあると判定したときに所定の信号
を出力することを特徴とする、 産業用ロボットの作動領域制限方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP15650587A JPS642893A (en) | 1987-06-25 | 1987-06-25 | Limiting method for operating region of industrial robot |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP15650587A JPS642893A (en) | 1987-06-25 | 1987-06-25 | Limiting method for operating region of industrial robot |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH012893A true JPH012893A (ja) | 1989-01-06 |
| JPS642893A JPS642893A (en) | 1989-01-06 |
Family
ID=15629229
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP15650587A Pending JPS642893A (en) | 1987-06-25 | 1987-06-25 | Limiting method for operating region of industrial robot |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPS642893A (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE68928245T2 (de) * | 1988-12-27 | 1997-12-11 | Canon Kk | Durch elektrisches Feld lichtemittierende Vorrichtung |
| JPH04214094A (ja) * | 1990-04-26 | 1992-08-05 | Hitachi Ltd | 合成ダイヤモンド薄膜の製法、該薄膜及びそれを用いた装置 |
| EP3808511B1 (de) * | 2019-10-15 | 2024-07-31 | Siemens Aktiengesellschaft | Verfahren zum überwachen einer arbeitsumgebung und überwachungseinrichtung |
-
1987
- 1987-06-25 JP JP15650587A patent/JPS642893A/ja active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11724388B2 (en) | Robot controller and display device using augmented reality and mixed reality | |
| CN113056351B (zh) | 外部输入设备、机器人系统、其控制方法及记录介质 | |
| JP6445092B2 (ja) | ロボットの教示のための情報を表示するロボットシステム | |
| JP7111114B2 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
| JP2004351570A (ja) | ロボットシステム | |
| CN105960623A (zh) | 用于控制机器人的便携式装置及其方法 | |
| JP7674464B2 (ja) | 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置 | |
| JP3742879B2 (ja) | ロボットアーム・ハンド操作制御方法、ロボットアーム・ハンド操作制御システム | |
| JP7112528B2 (ja) | 作業座標作成装置 | |
| JP6457587B2 (ja) | ワークの動画に基づいて教示点を設定するロボットの教示装置 | |
| JP2006026790A (ja) | 教示モデル生成装置 | |
| JPS6179589A (ja) | ロボツト運転装置 | |
| JP2018200278A (ja) | 位置計測装置の操作方法 | |
| JPH012893A (ja) | 産業用ロボットの作動領域制限方法 | |
| JPH05345291A (ja) | ロボットの動作範囲制限方式 | |
| JP7660686B2 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
| JPH0299802A (ja) | ハンドアイを用いた視覚センサにおける座標系設定方法 | |
| JPH0746288B2 (ja) | 手先視覚を持つロボットの制御方法とその装置 | |
| JPH05303425A (ja) | 直接教示方式ロボット | |
| JP3953450B2 (ja) | 3次元オブジェクト姿勢操作方法およびプログラム | |
| JP7657936B2 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
| JPS62165213A (ja) | 作業環境教示装置 | |
| JPS6257892A (ja) | 視覚付ロボツトのカメラ座標較正方法 | |
| JPH08257955A (ja) | マニピュレーターの曲面なぞり制御方法 | |
| Landa-Hurtado et al. | Kinect-based trajectory teaching for industrial robots |