JPH0699381A - 視覚センサ付きロボットの制御方法 - Google Patents
視覚センサ付きロボットの制御方法Info
- Publication number
- JPH0699381A JPH0699381A JP25235492A JP25235492A JPH0699381A JP H0699381 A JPH0699381 A JP H0699381A JP 25235492 A JP25235492 A JP 25235492A JP 25235492 A JP25235492 A JP 25235492A JP H0699381 A JPH0699381 A JP H0699381A
- Authority
- JP
- Japan
- Prior art keywords
- work
- visual sensor
- robot
- data
- tool
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】
【目的】本発明は視覚センサ付きロボットの制御方法に
関するもので、視覚センサ付きロボットの作業能率を向
上させることを目的とする。 【構成】ロボットヘッド部に作業ツール2と作業ツール
2の軸を中心として回転できる視覚センサ1を備えた視
覚センサ付きロボット5によって、ワーク3上の作業位
置の上空を視覚センサ1が作業ツール2より先行して通
過するようにし、移動中停止せずに作業位置周囲部を撮
影し、該画像データより認識対象物の位置を検出し実際
の作業位置を求め、該実際の作業位置へ作業ツール2を
移動させて作業を行うようにした。
関するもので、視覚センサ付きロボットの作業能率を向
上させることを目的とする。 【構成】ロボットヘッド部に作業ツール2と作業ツール
2の軸を中心として回転できる視覚センサ1を備えた視
覚センサ付きロボット5によって、ワーク3上の作業位
置の上空を視覚センサ1が作業ツール2より先行して通
過するようにし、移動中停止せずに作業位置周囲部を撮
影し、該画像データより認識対象物の位置を検出し実際
の作業位置を求め、該実際の作業位置へ作業ツール2を
移動させて作業を行うようにした。
Description
【0001】
【産業上の利用分野】本発明は例えば視覚センサ付きね
じ締めロボット等の視覚センサ付きロボットの制御方法
に関するものである。以下ロボットをねじ締めロボット
として説明する。
じ締めロボット等の視覚センサ付きロボットの制御方法
に関するものである。以下ロボットをねじ締めロボット
として説明する。
【0002】
【従来の技術】従来のねじ締めロボットは、ヘッド部に
設けられた電動ドライバ等の作業ツールをワーク上のね
じ下穴等の作業位置に移動させて作業ツールの作業位置
データを教示し、運転時はこの教示作業位置データに従
って位置決め制御装置で作業ツールを位置決めし、ねじ
締め作業を実行している。しかしこの方法では、例えば
成形寸法が成形条件や気温等の外的要因に左右され易い
プラスチック成形品または外形寸法が大きい板金加工品
のワークの場合、作業ツールを教示作業位置へ精度良く
位置決めしても、ワーク上のねじ下穴の実際の位置は教
示作業位置からずれる場合があり確実なねじ締め作業が
行えず、ねじ締め作業の自動化が困難となっていた。
設けられた電動ドライバ等の作業ツールをワーク上のね
じ下穴等の作業位置に移動させて作業ツールの作業位置
データを教示し、運転時はこの教示作業位置データに従
って位置決め制御装置で作業ツールを位置決めし、ねじ
締め作業を実行している。しかしこの方法では、例えば
成形寸法が成形条件や気温等の外的要因に左右され易い
プラスチック成形品または外形寸法が大きい板金加工品
のワークの場合、作業ツールを教示作業位置へ精度良く
位置決めしても、ワーク上のねじ下穴の実際の位置は教
示作業位置からずれる場合があり確実なねじ締め作業が
行えず、ねじ締め作業の自動化が困難となっていた。
【0003】そこで、上記した問題点を解決するため、
前記ヘッド部に視覚センサを取り付け、該視覚センサを
ワーク上のねじ下穴位置に移動させて位置を教示し、運
転時はこの教示位置に視覚センサを一旦位置決め停止さ
せた後、視覚センサで認識対象物であるねじ下穴の重心
位置等を検出して実際の作業位置を求め、該検出作業位
置データと、作業ツールと視覚センサの取り付け位置関
係データから作業ツールが移動すべき補正移動量を求
め、該補正移動量に従って作業ツールを移動させ、ねじ
締め作業を行っている。
前記ヘッド部に視覚センサを取り付け、該視覚センサを
ワーク上のねじ下穴位置に移動させて位置を教示し、運
転時はこの教示位置に視覚センサを一旦位置決め停止さ
せた後、視覚センサで認識対象物であるねじ下穴の重心
位置等を検出して実際の作業位置を求め、該検出作業位
置データと、作業ツールと視覚センサの取り付け位置関
係データから作業ツールが移動すべき補正移動量を求
め、該補正移動量に従って作業ツールを移動させ、ねじ
締め作業を行っている。
【0004】
【発明が解決しようとする課題】しかし、ワーク上の作
業位置毎に視覚センサを一旦停止させて作業位置を補正
するようにすると、作業位置の補正移動量を算出する時
間と補正のための移動時間との和すなわち補正時間が作
業時間に加わるため、作業能率が上がらないという欠点
があった。本発明の目的は、上記した従来技術の欠点を
なくし、視覚センサ付きロボットの作業能率を向上させ
ると共に教示等の取扱を容易にすることができる視覚セ
ンサ付きロボットの制御方法を提供することである。
業位置毎に視覚センサを一旦停止させて作業位置を補正
するようにすると、作業位置の補正移動量を算出する時
間と補正のための移動時間との和すなわち補正時間が作
業時間に加わるため、作業能率が上がらないという欠点
があった。本発明の目的は、上記した従来技術の欠点を
なくし、視覚センサ付きロボットの作業能率を向上させ
ると共に教示等の取扱を容易にすることができる視覚セ
ンサ付きロボットの制御方法を提供することである。
【0005】
【課題を解決するための手段】上記目的を達成するため
に本発明は、ワーク上の作業位置の上空を視覚センサが
作業ツールより先行して通過するような位置に誘導し、
またロボットヘッド部の移動経路を制御し、作業位置の
上空を視覚センサが通過移動中停止せずに作業位置周囲
部を撮影し、その画像データより算出したねじ下穴重心
位置と撮影位置データと作業ツールと視覚センサの取り
付け位置関係データから実際の作業位置を求め、その実
際の作業位置へ作業ツールを移動させて作業するように
したものである。更に、本発明によれば、ワーク上の作
業位置の上空を視覚センサが作業ツールより先行して通
過するような位置に誘導するための教示作業を省き、ロ
ボットヘッド部の現在位置と次の作業位置の位置関係か
らヘッド部の移動経路を生成する際に自動的に視覚セン
サの旋回配置経路も生成するようにしたものである。
に本発明は、ワーク上の作業位置の上空を視覚センサが
作業ツールより先行して通過するような位置に誘導し、
またロボットヘッド部の移動経路を制御し、作業位置の
上空を視覚センサが通過移動中停止せずに作業位置周囲
部を撮影し、その画像データより算出したねじ下穴重心
位置と撮影位置データと作業ツールと視覚センサの取り
付け位置関係データから実際の作業位置を求め、その実
際の作業位置へ作業ツールを移動させて作業するように
したものである。更に、本発明によれば、ワーク上の作
業位置の上空を視覚センサが作業ツールより先行して通
過するような位置に誘導するための教示作業を省き、ロ
ボットヘッド部の現在位置と次の作業位置の位置関係か
らヘッド部の移動経路を生成する際に自動的に視覚セン
サの旋回配置経路も生成するようにしたものである。
【0006】
【作用】上記した制御方法によれば、作業ツールの移動
時間内で実際の作業位置の位置補正を行い従来の補正時
間を省くことができるので、作業能率を向上させること
ができる。また、視覚センサを作業ツールより先行させ
るための教示手間を省き取扱いを極めて容易にすること
ができる。
時間内で実際の作業位置の位置補正を行い従来の補正時
間を省くことができるので、作業能率を向上させること
ができる。また、視覚センサを作業ツールより先行させ
るための教示手間を省き取扱いを極めて容易にすること
ができる。
【0007】
【実施例】本発明を実施例図面を参照して説明する。図
1は、機械原点Oに戻った時の視覚センサ付きねじ締め
ロボット(以下単にロボットという)の平面図で、X軸
とY軸を有するロボット5は、ロボット5のヘッド部に
ねじ締め等の作業を行う作業ツール2と、該作業ツール
2の軸を中心として半径Rの位置に取り付けられワーク
3上の作業位置周囲部を撮影する視覚センサ1と、該視
覚センサ1を回転位置決めする視覚センサ用モータ4
と、視覚センサ用モータ4に直結された視覚センサ用エ
ンコーダ10を備えている。ワーク3はねじ締め作業位
置が2個所有り、P1、P2は教示作業位置を表し、P
1’、P2’は実際の作業位置を表すとする。
1は、機械原点Oに戻った時の視覚センサ付きねじ締め
ロボット(以下単にロボットという)の平面図で、X軸
とY軸を有するロボット5は、ロボット5のヘッド部に
ねじ締め等の作業を行う作業ツール2と、該作業ツール
2の軸を中心として半径Rの位置に取り付けられワーク
3上の作業位置周囲部を撮影する視覚センサ1と、該視
覚センサ1を回転位置決めする視覚センサ用モータ4
と、視覚センサ用モータ4に直結された視覚センサ用エ
ンコーダ10を備えている。ワーク3はねじ締め作業位
置が2個所有り、P1、P2は教示作業位置を表し、P
1’、P2’は実際の作業位置を表すとする。
【0008】図2にロボット5を制御する視覚補正位置
決め装置11のブロック図を示す。視覚補正位置決め装
置11は、視覚補正位置決め装置11全体の制御を行う
CPU12と、制御プログラムを記憶しているROM1
4と、作業者がロボット5の位置教示等を行う時に操作
するキーボード16と、キーボード16から入力された
教示データ等を記憶するRAM15と、撮影指令信号2
3を出力する撮影指令出力部17と、撮影指令信号23
を受けると瞬時に撮影する視覚センサ1から出力される
アナログ映像信号をデジタル値に変換するA/D変換回
路18と、A/D変換されたデジタル画像データを記憶
する画像メモリ13と、前記視覚センサ用モータ4を駆
動させると共に視覚センサ用エンコーダ10から出力さ
れるパルスをフィードバックして視覚センサ1の回転位
置決め制御を行う視覚センサ回転位置決め制御部19
と、X軸用モータ6、Y軸用モータ7を駆動させロボッ
トヘッド部を現在の位置から次の作業位置まで例えば最
短経路すなわち直線経路で移動させて位置決め制御を行
うXYテーブル位置決め制御部20と、X軸用モータ6
に直結されたエンコーダ8、Y軸用モータ7に直結され
たエンコーダ9から出力されるパルスの数をカウントす
るアップダウンカウンタ(以下単にカウンタという)2
1と、撮影指令信号23を受けた瞬間の視覚センサ1の
現在位置と視覚センサ1の回転角度データを記憶保持す
る撮影位置データ保持部22と、CPU12へ割込み信
号を与える割込み信号発生部27と、作業ツール2の作
業を制御する作業ツール制御部28等から構成される。
決め装置11のブロック図を示す。視覚補正位置決め装
置11は、視覚補正位置決め装置11全体の制御を行う
CPU12と、制御プログラムを記憶しているROM1
4と、作業者がロボット5の位置教示等を行う時に操作
するキーボード16と、キーボード16から入力された
教示データ等を記憶するRAM15と、撮影指令信号2
3を出力する撮影指令出力部17と、撮影指令信号23
を受けると瞬時に撮影する視覚センサ1から出力される
アナログ映像信号をデジタル値に変換するA/D変換回
路18と、A/D変換されたデジタル画像データを記憶
する画像メモリ13と、前記視覚センサ用モータ4を駆
動させると共に視覚センサ用エンコーダ10から出力さ
れるパルスをフィードバックして視覚センサ1の回転位
置決め制御を行う視覚センサ回転位置決め制御部19
と、X軸用モータ6、Y軸用モータ7を駆動させロボッ
トヘッド部を現在の位置から次の作業位置まで例えば最
短経路すなわち直線経路で移動させて位置決め制御を行
うXYテーブル位置決め制御部20と、X軸用モータ6
に直結されたエンコーダ8、Y軸用モータ7に直結され
たエンコーダ9から出力されるパルスの数をカウントす
るアップダウンカウンタ(以下単にカウンタという)2
1と、撮影指令信号23を受けた瞬間の視覚センサ1の
現在位置と視覚センサ1の回転角度データを記憶保持す
る撮影位置データ保持部22と、CPU12へ割込み信
号を与える割込み信号発生部27と、作業ツール2の作
業を制御する作業ツール制御部28等から構成される。
【0009】図4は撮影画像と撮影位置を示し、24は
視覚センサ1の撮影視野、25は認識対象物であるねじ
下穴、26は撮影位置許容範囲を表す。図3に示した動
作フローチャートを参照して説明する。作業者は、所定
の作業方法に従ってキーボード16を操作し、ロボット
5を機械原点Oに戻し、作業ツール2をワーク3上の作
業位置に移動させて位置の教示、ねじ締め作業等のプロ
グラムを入力する。図1に示すようにロボット5が機械
原点Oに戻る時視覚センサ1は、例えばX軸と平行をな
す位置に原点戻り動作を行う。
視覚センサ1の撮影視野、25は認識対象物であるねじ
下穴、26は撮影位置許容範囲を表す。図3に示した動
作フローチャートを参照して説明する。作業者は、所定
の作業方法に従ってキーボード16を操作し、ロボット
5を機械原点Oに戻し、作業ツール2をワーク3上の作
業位置に移動させて位置の教示、ねじ締め作業等のプロ
グラムを入力する。図1に示すようにロボット5が機械
原点Oに戻る時視覚センサ1は、例えばX軸と平行をな
す位置に原点戻り動作を行う。
【0010】プログラム入力作業終了後CPU12は、
教示作業位置P1、P2をRAM15に記憶し、視覚セ
ンサ1を教示作業位置P1の方向へ向けるための回転角
θ1を計算し、視覚センサ回転位置決め制御部19へ回
転角度データθ1を出力する。視覚センサ回転位置決め
制御部19は、視覚センサ1が教示作業位置P1の上空
を作業ツール2より先行して通過するような配置つまり
X軸とθ1角をなすように視覚センサ用モータ4を駆動
して視覚センサ1の回転位置決めを行う。またCPU1
2は、視覚センサ1が教示作業位置P1の上空に来た時
の撮影位置SP1を教示作業位置P1と回転角度データ
θ1と半径Rから計算しRAM15に記憶する。
教示作業位置P1、P2をRAM15に記憶し、視覚セ
ンサ1を教示作業位置P1の方向へ向けるための回転角
θ1を計算し、視覚センサ回転位置決め制御部19へ回
転角度データθ1を出力する。視覚センサ回転位置決め
制御部19は、視覚センサ1が教示作業位置P1の上空
を作業ツール2より先行して通過するような配置つまり
X軸とθ1角をなすように視覚センサ用モータ4を駆動
して視覚センサ1の回転位置決めを行う。またCPU1
2は、視覚センサ1が教示作業位置P1の上空に来た時
の撮影位置SP1を教示作業位置P1と回転角度データ
θ1と半径Rから計算しRAM15に記憶する。
【0011】続いて作業者は、ロボット5へ作業開始命
令をキーボード16より入力する。視覚補正位置決め装
置11は、作業開始命令を受けるとロボットヘッド部を
機械原点位置Oから教示作業位置P1へ向けてX軸用モ
ータ6、Y軸用モータ7を駆動させて移動を開始する
(100)。XYテーブル位置決め制御部20は、ロボ
ットヘッド部の現在位置データをフィードバックしなが
ら直線経路で移動するように制御する。CPU12は、
前記撮影位置SP1とX軸用エンコーダ8、Y軸用エン
コーダ9からフィードバックされた視覚センサ1の現在
位置データが予め設定された撮影位置許容範囲26内に
入る時すなわちワーク3上の作業位置上空に視覚センサ
1が来た時(101)、撮影指令出力部17へ撮影指令
を送る。撮影指令出力部17は、撮影指令信号23を撮
影位置データ保持部22と視覚センサ1へ出力する。撮
影位置データ保持部22は瞬時に視覚センサ1の現在位
置(XP1、YP1)及び視覚センサ1の回転角度デー
タθ1を保持し(102)、視覚センサ1は作業位置の
ねじ下穴25周囲部の撮影を実行し(103)、視覚セ
ンサ1から出力される映像情報はA/D変換回路18を
介して画像メモリ13に記憶される。この時ロボットヘ
ッド部は作業ツール2を教示作業位置P1に位置決めし
ようと移動を続ける。CPU12は、画像メモリ13の
画像データより図4に示すようにXY座標系におけるね
じ下穴重心位置(X1、Y1)を算出し、このねじ下穴
重心位置 (X1、Y1)、撮影位置データ保持部22
の撮影位置データ(XP1、YP1)と視覚センサ1の
回転角度データθ1からXY座標系でのねじ締め作業目
標位置すなわち補正位置P1’を計算し(104)、補
正位置P1’をXYテーブル位置決め制御部20へ送
る。XYテーブル位置決め制御部20は位置決め目標位
置をP1からP1’に変え作業ツール2を位置決めし
(105)、作業ツール制御部28が作業ツール2を制
御してねじ締め作業を実行する(106)。
令をキーボード16より入力する。視覚補正位置決め装
置11は、作業開始命令を受けるとロボットヘッド部を
機械原点位置Oから教示作業位置P1へ向けてX軸用モ
ータ6、Y軸用モータ7を駆動させて移動を開始する
(100)。XYテーブル位置決め制御部20は、ロボ
ットヘッド部の現在位置データをフィードバックしなが
ら直線経路で移動するように制御する。CPU12は、
前記撮影位置SP1とX軸用エンコーダ8、Y軸用エン
コーダ9からフィードバックされた視覚センサ1の現在
位置データが予め設定された撮影位置許容範囲26内に
入る時すなわちワーク3上の作業位置上空に視覚センサ
1が来た時(101)、撮影指令出力部17へ撮影指令
を送る。撮影指令出力部17は、撮影指令信号23を撮
影位置データ保持部22と視覚センサ1へ出力する。撮
影位置データ保持部22は瞬時に視覚センサ1の現在位
置(XP1、YP1)及び視覚センサ1の回転角度デー
タθ1を保持し(102)、視覚センサ1は作業位置の
ねじ下穴25周囲部の撮影を実行し(103)、視覚セ
ンサ1から出力される映像情報はA/D変換回路18を
介して画像メモリ13に記憶される。この時ロボットヘ
ッド部は作業ツール2を教示作業位置P1に位置決めし
ようと移動を続ける。CPU12は、画像メモリ13の
画像データより図4に示すようにXY座標系におけるね
じ下穴重心位置(X1、Y1)を算出し、このねじ下穴
重心位置 (X1、Y1)、撮影位置データ保持部22
の撮影位置データ(XP1、YP1)と視覚センサ1の
回転角度データθ1からXY座標系でのねじ締め作業目
標位置すなわち補正位置P1’を計算し(104)、補
正位置P1’をXYテーブル位置決め制御部20へ送
る。XYテーブル位置決め制御部20は位置決め目標位
置をP1からP1’に変え作業ツール2を位置決めし
(105)、作業ツール制御部28が作業ツール2を制
御してねじ締め作業を実行する(106)。
【0012】一方CPU12は、上記作業と並行して視
覚センサ1の撮影終了後、割込み信号発生部27の割込
み信号より時分割制御を行い、視覚センサ1を次の教示
作業位置P2の方向へ向けるため、補正位置P1’と教
示作業位置P2から視覚センサ1の回転角度データθ2
を計算し(107)、視覚センサ回転位置決め制御部1
9へ回転角度データθ2を出力する。視覚センサ回転位
置決め制御部19はX軸とθ2角をなすように視覚セン
サ用モータ4を駆動して視覚センサ1の回転位置決めを
行う(108)。またCPU12は、視覚センサ1がワ
ーク3上の教示作業位置P2の上空へ来た時の撮影位置
SP2を補正位置P1’と教示作業位置P2と回転角度
データθ2と半径Rから計算しRAM15に記憶する
(109)。以上の視覚センサ1の回転角θ2、視覚セ
ンサ1のθ2角回転位置決め、撮影位置SP2の計算は
補正位置P1’のねじ締め作業終了時までに行う。
覚センサ1の撮影終了後、割込み信号発生部27の割込
み信号より時分割制御を行い、視覚センサ1を次の教示
作業位置P2の方向へ向けるため、補正位置P1’と教
示作業位置P2から視覚センサ1の回転角度データθ2
を計算し(107)、視覚センサ回転位置決め制御部1
9へ回転角度データθ2を出力する。視覚センサ回転位
置決め制御部19はX軸とθ2角をなすように視覚セン
サ用モータ4を駆動して視覚センサ1の回転位置決めを
行う(108)。またCPU12は、視覚センサ1がワ
ーク3上の教示作業位置P2の上空へ来た時の撮影位置
SP2を補正位置P1’と教示作業位置P2と回転角度
データθ2と半径Rから計算しRAM15に記憶する
(109)。以上の視覚センサ1の回転角θ2、視覚セ
ンサ1のθ2角回転位置決め、撮影位置SP2の計算は
補正位置P1’のねじ締め作業終了時までに行う。
【0013】補正位置P1’のねじ締め作業が終了する
と視覚補正位置決め装置11は、ロボットヘッド部をね
じ締め作業位置P1’から次の教示作業位置P2へ向け
てX軸用モータ6、Y軸用モータ7を駆動し移動を開始
する。上記したようにロボットヘッド部は直線経路で移
動し、視覚センサ1がワーク3上の教示作業位置P2の
上空へ来た時撮影を行う。CPU12は、撮影した画像
データよりねじ下穴重心位置を求め、XY座標系で表現
した補正位置P2’を計算し、補正位置P2’をXYテ
ーブル位置決め制御部20へ送る。XYテーブル位置決
め制御部20は、作業ツール2の位置決め目標位置をP
2からP2’に変え作業ツール2を位置決めし、作業ツ
ール制御部28で制御される作業ツール2でねじ締め作
業を実行する。
と視覚補正位置決め装置11は、ロボットヘッド部をね
じ締め作業位置P1’から次の教示作業位置P2へ向け
てX軸用モータ6、Y軸用モータ7を駆動し移動を開始
する。上記したようにロボットヘッド部は直線経路で移
動し、視覚センサ1がワーク3上の教示作業位置P2の
上空へ来た時撮影を行う。CPU12は、撮影した画像
データよりねじ下穴重心位置を求め、XY座標系で表現
した補正位置P2’を計算し、補正位置P2’をXYテ
ーブル位置決め制御部20へ送る。XYテーブル位置決
め制御部20は、作業ツール2の位置決め目標位置をP
2からP2’に変え作業ツール2を位置決めし、作業ツ
ール制御部28で制御される作業ツール2でねじ締め作
業を実行する。
【0014】なお、上記実施例においてはロボット5を
直交形ロボットとしたが、水平多関節形、その他の構造
のロボットにも本発明の思想が適用されることは明らか
である。また、上記実施例においては視覚センサ1の回
転角θ2の計算、視覚センサ1のθ2角回転位置決め、
撮影位置SP2の計算は補正位置P1’のねじ締め作業
終了時までに行っているが、図5の動作フローチャート
に示すように次の教示作業位置P2へ向かう途中で実行
させることも可能である。
直交形ロボットとしたが、水平多関節形、その他の構造
のロボットにも本発明の思想が適用されることは明らか
である。また、上記実施例においては視覚センサ1の回
転角θ2の計算、視覚センサ1のθ2角回転位置決め、
撮影位置SP2の計算は補正位置P1’のねじ締め作業
終了時までに行っているが、図5の動作フローチャート
に示すように次の教示作業位置P2へ向かう途中で実行
させることも可能である。
【0015】
【発明の効果】以上のように本発明によれば、ワーク上
の作業位置の上空を視覚センサが作業ツールより先行し
て通過するような配置とロボットヘッド部の移動経路を
制御し、移動中停止せずに作業位置周囲部を撮影し、そ
の画像データと撮影位置データとから実際の作業位置を
求め、その実際の作業位置へ作業ツールを移動させる位
置補正方法なので、作業能率を向上させることができ
る。また、視覚センサの配置に関する教示は必要ないの
で、取扱いが容易になるという効果がある。
の作業位置の上空を視覚センサが作業ツールより先行し
て通過するような配置とロボットヘッド部の移動経路を
制御し、移動中停止せずに作業位置周囲部を撮影し、そ
の画像データと撮影位置データとから実際の作業位置を
求め、その実際の作業位置へ作業ツールを移動させる位
置補正方法なので、作業能率を向上させることができ
る。また、視覚センサの配置に関する教示は必要ないの
で、取扱いが容易になるという効果がある。
【図1】視覚センサ付きねじ締めロボットの平面図。
【図2】視覚補正位置決め装置のブロック図。
【図3】動作説明用フローチャート。
【図4】撮影画像と撮影位置を示す平面図。
【図5】動作説明用フローチャート。
1は視覚センサ、2は作業ツール、3はワーク、4は視
覚センサ用モータ、5は視覚センサ付きねじ締めロボッ
ト、11は視覚補正位置決め装置、12はCPU、17
は撮影指令出力部、19は視覚センサ回転位置決め制御
部、22は撮影位置データ保持部、23は撮影指令信
号、25はねじ下穴である。
覚センサ用モータ、5は視覚センサ付きねじ締めロボッ
ト、11は視覚補正位置決め装置、12はCPU、17
は撮影指令出力部、19は視覚センサ回転位置決め制御
部、22は撮影位置データ保持部、23は撮影指令信
号、25はねじ下穴である。
Claims (2)
- 【請求項1】 ヘッド部に作業ツールと視覚センサを備
え、少なくとも1個所の作業位置を有するワーク上の作
業位置周囲部内にある認識対象物の位置を前記視覚セン
サで検出して実際の作業位置データを求め、該作業位置
データに従って前記作業ツールを移動させて作業する視
覚センサ付きロボットにおいて、 前記ワーク上の作業位置の上空を前記視覚センサが前記
作業ツールより先行して通過するような位置に視覚セン
サ用モータを駆動して前記視覚センサを配置し、移動中
停止せずに作業位置周囲部を撮影し、該画像データより
検出した認識対象物の位置と撮影位置データと視覚セン
サの回転角度データから実際の作業位置を求め、該実際
の作業位置へ作業ツールを移動させるようにしたことを
特徴とする視覚センサ付きロボットの制御方法。 - 【請求項2】 前記ヘッド部の現在位置と次の作業位置
の位置関係から前記視覚センサの前記回転角度データを
計算し、該回転角度データに従って視覚センサ用モータ
を駆動して前記視覚センサを配置させ、前記視覚センサ
の回転角度の教示作業を省いたことを特徴とする請求項
1記載の視覚センサ付きロボットの制御方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP25235492A JPH0699381A (ja) | 1992-09-22 | 1992-09-22 | 視覚センサ付きロボットの制御方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP25235492A JPH0699381A (ja) | 1992-09-22 | 1992-09-22 | 視覚センサ付きロボットの制御方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0699381A true JPH0699381A (ja) | 1994-04-12 |
Family
ID=17236127
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP25235492A Withdrawn JPH0699381A (ja) | 1992-09-22 | 1992-09-22 | 視覚センサ付きロボットの制御方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0699381A (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6123837A (en) * | 1998-01-21 | 2000-09-26 | The Clorox Company | Faucet mounted water filter |
| JP2014124765A (ja) * | 2012-12-27 | 2014-07-07 | Nitto Seiko Co Ltd | 自動ねじ締め装置 |
| JP2015000454A (ja) * | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | ロボット装置及びロボット制御方法 |
| WO2021149429A1 (ja) * | 2020-01-23 | 2021-07-29 | オムロン株式会社 | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム |
| JP2021115693A (ja) * | 2020-01-23 | 2021-08-10 | オムロン株式会社 | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム |
-
1992
- 1992-09-22 JP JP25235492A patent/JPH0699381A/ja not_active Withdrawn
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6123837A (en) * | 1998-01-21 | 2000-09-26 | The Clorox Company | Faucet mounted water filter |
| JP2014124765A (ja) * | 2012-12-27 | 2014-07-07 | Nitto Seiko Co Ltd | 自動ねじ締め装置 |
| JP2015000454A (ja) * | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | ロボット装置及びロボット制御方法 |
| WO2021149429A1 (ja) * | 2020-01-23 | 2021-07-29 | オムロン株式会社 | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム |
| JP2021115693A (ja) * | 2020-01-23 | 2021-08-10 | オムロン株式会社 | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム |
| US12097627B2 (en) | 2020-01-23 | 2024-09-24 | Omron Corporation | Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US4899095A (en) | Robot control system | |
| US20040037689A1 (en) | Object handling apparatus | |
| US4969108A (en) | Vision seam tracking method and apparatus for a manipulator | |
| KR101617750B1 (ko) | 로봇 | |
| EP0104270A1 (en) | Robot control apparatus | |
| EP0416123A1 (en) | Manual intervention method for industrial robot | |
| JP2004001122A (ja) | ピッキング装置 | |
| US4580085A (en) | Feed control system with a safety device | |
| US20100017032A1 (en) | Device for controlling a robot | |
| JPH0699381A (ja) | 視覚センサ付きロボットの制御方法 | |
| JP3543329B2 (ja) | ロボットの教示装置 | |
| JPS625408A (ja) | 関節形ロボツトの制御方式 | |
| EP0460227B1 (en) | Additional shaft follow-up control system of robot | |
| JPS62226308A (ja) | 視覚センサを有するロボツトの制御方式 | |
| JPH1190868A (ja) | ロボット制御装置 | |
| JP2922617B2 (ja) | 力制御ロボットにおける押付力方向の指定方法 | |
| JPH05216516A (ja) | レーザ加工機 | |
| JP2547999B2 (ja) | プログラムデ−タの教示装置 | |
| JPS6340908A (ja) | ロボツト制御装置 | |
| JPH02152748A (ja) | 数値制御用工作機械のストロークエンドチェック装置 | |
| JP2778285B2 (ja) | 倣いセンサロボットシステム | |
| JPH0631982U (ja) | ロボットの制御装置 | |
| JPS61131887A (ja) | 視覚付ロボツトのキヤリブレ−シヨン方式 | |
| JPH07106536B2 (ja) | Nc工作機械の原点位置補正装置 | |
| JPH0647670Y2 (ja) | ロボット制御装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 19991130 |