JPS58155192A - ロボツトハンド - Google Patents
ロボツトハンドInfo
- Publication number
- JPS58155192A JPS58155192A JP3878182A JP3878182A JPS58155192A JP S58155192 A JPS58155192 A JP S58155192A JP 3878182 A JP3878182 A JP 3878182A JP 3878182 A JP3878182 A JP 3878182A JP S58155192 A JPS58155192 A JP S58155192A
- Authority
- JP
- Japan
- Prior art keywords
- robot hand
- mark
- grasped
- visual device
- palm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
この発明は、視覚装置でとらえた情報をもとに、把持対
象をハンドリングするロボットハンドの改良に関する。
象をハンドリングするロボットハンドの改良に関する。
従来のこの種のロボットハンドH1としては、例えば第
1図に示すものがある。図において、1はアーム、2は
リスト、3はパーム、4.4は一対のフィンガーで、そ
れぞれ人間の手に対応した部分を示す。
1図に示すものがある。図において、1はアーム、2は
リスト、3はパーム、4.4は一対のフィンガーで、そ
れぞれ人間の手に対応した部分を示す。
アーム1は、その軸方向、つまり矢符a方向および上下
左右方間へ動くようになっている。リスト2は、二叉に
なった第1リス)2aと、これにはさまれて軸5を中心
に矢符す方向へ回転する筒状の第2リスト2bとより成
り、前記第1リスト2aはアーム1に、矢符C方向へ同
軸回転可能に装着しである。パーム3は、上記第2リス
ト2bの中に、これと同軸的に矢符d方向へ回転するよ
うに、装着しである。
左右方間へ動くようになっている。リスト2は、二叉に
なった第1リス)2aと、これにはさまれて軸5を中心
に矢符す方向へ回転する筒状の第2リスト2bとより成
り、前記第1リスト2aはアーム1に、矢符C方向へ同
軸回転可能に装着しである。パーム3は、上記第2リス
ト2bの中に、これと同軸的に矢符d方向へ回転するよ
うに、装着しである。
上記一対のフィンガー4,4は、それぞれ$1フィンガ
ー子4aと第2フインガー子4bとより成り、両者4a
、4bは関節軸6で矢符e方向へ開閉可能にしである
。
ー子4aと第2フインガー子4bとより成り、両者4a
、4bは関節軸6で矢符e方向へ開閉可能にしである
。
そして、両フィンガー4.4の第2フインガー子4bは
、パーム3に装着し、矢符f方向へ開閉するようになっ
ている。
、パーム3に装着し、矢符f方向へ開閉するようになっ
ている。
7は、図外の制御機構に把持対象物の映像情報を送って
ロボットハンドH1を制御するための視覚装置である工
業用カメラ(以下ITVカメラと称する)で、フィンガ
ー4,4方向へ向けてパーム3に袋層してめる。そして
、このロボットハンドH1の動作は、ITVカメラ7で
観測して前記制a機構へ送られた把持対象物からの情報
によって制御されるようになっている。
ロボットハンドH1を制御するための視覚装置である工
業用カメラ(以下ITVカメラと称する)で、フィンガ
ー4,4方向へ向けてパーム3に袋層してめる。そして
、このロボットハンドH1の動作は、ITVカメラ7で
観測して前記制a機構へ送られた把持対象物からの情報
によって制御されるようになっている。
次に、上記ロボットハンドHIの動作を、第2図によっ
て説明する。この図は、ある平面上にロボットハンドH
1の把持対象物8(立方体)が置かれ、その上方に、ロ
ボットハンドH0のITVカメラ7で把持対象物8を観
測し易いように、外部から照明する照明装置i19がセ
ットされている状態を示して、Qる。
て説明する。この図は、ある平面上にロボットハンドH
1の把持対象物8(立方体)が置かれ、その上方に、ロ
ボットハンドH0のITVカメラ7で把持対象物8を観
測し易いように、外部から照明する照明装置i19がセ
ットされている状態を示して、Qる。
この状態においては、ITVカメラ7でその画面10内
に観測した映像11は、$3図のようになっている。
に観測した映像11は、$3図のようになっている。
この状態からロボットハンドH1を操作して把持対象物
8を把持するまでには1次の手順がとられる。
8を把持するまでには1次の手順がとられる。
まず、画面10F’:の把持対象物8の映像11の重心
位置が求められ、第4図のように、その重心位−が画面
lOの中央にくるように、ロボットハンドH,が制御さ
れて移動する。ここにいう重心は二次元的な重心を意味
しており1図中x印で示しである。
位置が求められ、第4図のように、その重心位−が画面
lOの中央にくるように、ロボットハンドH,が制御さ
れて移動する。ここにいう重心は二次元的な重心を意味
しており1図中x印で示しである。
次に1重心位置が画面10の中央にきても、第4図のよ
うに、フイ/ガー4,4による把持対象a8の把持面す
なわち、映像11におけるlII線りが、そのフイ/ガ
ー4.4の把持方向qに正対していないときは、ITV
カメラ1、すなわちパーム3は、さらに矢符d方向へ回
転し、画面lOにおける映像11が第5図の位置にくる
。つまり。
うに、フイ/ガー4,4による把持対象a8の把持面す
なわち、映像11におけるlII線りが、そのフイ/ガ
ー4.4の把持方向qに正対していないときは、ITV
カメラ1、すなわちパーム3は、さらに矢符d方向へ回
転し、画面lOにおける映像11が第5図の位置にくる
。つまり。
映像11で示される把持対象物8を、画面10上におい
て、矢符q方向から把持し得る位置にくる。
て、矢符q方向から把持し得る位置にくる。
このようにして、画面10上の把持位置にくると、パー
ム3は、把持対象物8に向って一定距離平行移動して降
下し、これを把持し得る位置にくるように、あらかじめ
調整されているので、ロボットハンド?I、はそのまま
降下して把持対象物8を把持する。
ム3は、把持対象物8に向って一定距離平行移動して降
下し、これを把持し得る位置にくるように、あらかじめ
調整されているので、ロボットハンド?I、はそのまま
降下して把持対象物8を把持する。
このようにして、ロボットハンドH,は、パーム3の中
に視覚装置7を備えているので、第1に。
に視覚装置7を備えているので、第1に。
そのハンドH8が移動して観測した把持対象物8の映像
11を情報処理して、自からを制御することができ、第
2に、ロボットのコントローラで行なう会費のあった複
雑な塵標変換を、ロボットハンドH1の機械的動きで代
用できるという利点をもっている。
11を情報処理して、自からを制御することができ、第
2に、ロボットのコントローラで行なう会費のあった複
雑な塵標変換を、ロボットハンドH1の機械的動きで代
用できるという利点をもっている。
しかしながら、上述のような従来のロボットハンドH0
にろっては、照明装[9がロボットノ・ンドH8から離
れた位置にあるため1次のような欠点がるる。。
にろっては、照明装[9がロボットノ・ンドH8から離
れた位置にあるため1次のような欠点がるる。。
すなわち、第1の欠点は、ロボットハンドH8による陰
や、把持対象物8自体によって生ずる陰のために、把持
対象物8の正確な把握が田無になることがめり、ロボッ
トハンドH8の効果的な利用ができないことでるり、第
2の欠点は、例えば第6図に示す把持対象物12にめる
くほみ13等の表面形状に関する情報は、その対象物1
2が同一色で作られている場合などには、簡単に抽出し
て把握できないため、その限りで、ロボットハンド鴫の
効果的な利用ができないことでおる。
や、把持対象物8自体によって生ずる陰のために、把持
対象物8の正確な把握が田無になることがめり、ロボッ
トハンドH8の効果的な利用ができないことでるり、第
2の欠点は、例えば第6図に示す把持対象物12にめる
くほみ13等の表面形状に関する情報は、その対象物1
2が同一色で作られている場合などには、簡単に抽出し
て把握できないため、その限りで、ロボットハンド鴫の
効果的な利用ができないことでおる。
この発明は、このような従来の欠点に着目してなされた
もので、上述のような従来の視覚装置を備えたロボット
ハンドのフィンガーに、把持対象物へスポット光等のマ
ークを投射する投光器等の光源を取り付けて構成し、か
つ前記光源の位置と、前記マークの投射方向と、投射し
たマークの映像位置とから、従来識別できなかった把持
対象物の六面形状、或いFi褌米陰になって識別できな
かったその歯部分の情報をもと9′入れて、把持対象物
を正確に把−できるようにしたロボットノ・/ドを提供
するにある。
もので、上述のような従来の視覚装置を備えたロボット
ハンドのフィンガーに、把持対象物へスポット光等のマ
ークを投射する投光器等の光源を取り付けて構成し、か
つ前記光源の位置と、前記マークの投射方向と、投射し
たマークの映像位置とから、従来識別できなかった把持
対象物の六面形状、或いFi褌米陰になって識別できな
かったその歯部分の情報をもと9′入れて、把持対象物
を正確に把−できるようにしたロボットノ・/ドを提供
するにある。
以ド、この発明を、第7図に示す実施例に基いて説明す
る。なお、第1図と同一部分には同一符号を付し、説明
は省略する。
る。なお、第1図と同一部分には同一符号を付し、説明
は省略する。
まず構成を説明すると、この発明のロボットノ・ンドH
1は、第1図に示すように、パーム3に視覚装置でろる
ITvカメラ7を備えた従来のロボット・・ンド!1の
フィンガー4.4の一方に、第7図のように、光源であ
る投光器14を取り付けて構成したところに特徴がある
。
1は、第1図に示すように、パーム3に視覚装置でろる
ITvカメラ7を備えた従来のロボット・・ンド!1の
フィンガー4.4の一方に、第7図のように、光源であ
る投光器14を取り付けて構成したところに特徴がある
。
ここで、上記投光器14は、ロボットハンドH!で把持
する把持対象物へITVカメラ7の認識1標となるスポ
ット光等のマークを投射する光源である。
する把持対象物へITVカメラ7の認識1標となるスポ
ット光等のマークを投射する光源である。
この投光器14は、第7図のように、一方のフィンガー
4の第1フインガー子4a方向にマークを投射し得るよ
うに取り付けて°める。従って、第1フインガー子4a
を動かすことによって、マークの投射方向を可変できる
ようになっている。
4の第1フインガー子4a方向にマークを投射し得るよ
うに取り付けて°める。従って、第1フインガー子4a
を動かすことによって、マークの投射方向を可変できる
ようになっている。
また、把持対象物の表向形状を仰るために算出するIT
Vカメラ7から上記マークまでの距離は、次の諸因子か
ら算出されるようになっている。すなわち、投光器14
のi’rvカメラ7に対する相対位置と、前記マークの
ITVカメラ7の光軸に対する投射方向と、ITVカメ
ラ7で観測した前記マークの映像位置とより算出できる
ようV(’、っている。
Vカメラ7から上記マークまでの距離は、次の諸因子か
ら算出されるようになっている。すなわち、投光器14
のi’rvカメラ7に対する相対位置と、前記マークの
ITVカメラ7の光軸に対する投射方向と、ITVカメ
ラ7で観測した前記マークの映像位置とより算出できる
ようV(’、っている。
そして、算出された谷マークまでの距離情報は、果めら
れて図外のロボットハンドH2の制御峨構へ入力され、
そのハンドH2の駆動情報として処理される構成になっ
ている。
れて図外のロボットハンドH2の制御峨構へ入力され、
そのハンドH2の駆動情報として処理される構成になっ
ている。
なお、上記距離の算出は、三角側量の原理を利用したも
のでろって、第8〜10図について説明すると、次のと
おりである。
のでろって、第8〜10図について説明すると、次のと
おりである。
第8図および第9図は、ロボットハンドH2のフィンガ
ー4の投光器14からのスポット光を■Tvカメラ1で
観測している状態を示したものでるる。図中、YoはI
’r Vカメラ7の先端から投光器14までの距離、
Xoは・■Tvカメラ7の光軸から投光器14までの距
離である。このXo 。
ー4の投光器14からのスポット光を■Tvカメラ1で
観測している状態を示したものでるる。図中、YoはI
’r Vカメラ7の先端から投光器14までの距離、
Xoは・■Tvカメラ7の光軸から投光器14までの距
離である。このXo 。
Yoで投光器14のITVカメラ7に対する相対位置が
定まる。
定まる。
π/4−αは、ITvカメラ7の光軸とスポット光の光
軸とのなす角度、つまシマークの投射方向を示す。
軸とのなす角度、つまシマークの投射方向を示す。
第10図は、第8図および第9図における把持対象物1
5上に投射されたマークをITVカメラ7で観測したと
きの画面16を示してお9、そのψのマーク17は第8
図の場合の見え方、マーク18は第9図の場合の見え方
を示している。Xは画面16の中心に位置するマーク1
1からマーク18までの距離、つまりマークの映像位置
を示している。
5上に投射されたマークをITVカメラ7で観測したと
きの画面16を示してお9、そのψのマーク17は第8
図の場合の見え方、マーク18は第9図の場合の見え方
を示している。Xは画面16の中心に位置するマーク1
1からマーク18までの距離、つまりマークの映像位置
を示している。
以上の条件の下で、ITVカメラ7からマーク17.1
8までの距離を求めると、第8図の場合は、 Y、=Yo+X。tan(g/j−a’)第9図の場合
は、ITVカメラ7の倍率をKとすると、 Y鱒=Y6 + (X6 Kit ) tai (K
/ 4 (! )で、それぞれ算出されることにな
る。
8までの距離を求めると、第8図の場合は、 Y、=Yo+X。tan(g/j−a’)第9図の場合
は、ITVカメラ7の倍率をKとすると、 Y鱒=Y6 + (X6 Kit ) tai (K
/ 4 (! )で、それぞれ算出されることにな
る。
次に、上記構成に基く動作を説明する。
説明の便宜のために1.第2図の把持対象物8の位置に
、第6図に示す表面にくぼみ13のある把持対象物12
がある場合を考える。
、第6図に示す表面にくぼみ13のある把持対象物12
がある場合を考える。
この場合は、従来のように、ロボットハンドH2のIT
Vカメラ7による輪郭情報だけから把持対象物12の把
持位置を決めることができない。なぜなら、上記把持対
象物12の向き、つまりくぼみ13が映像画面のどちら
側にあるかを識別して把持位置と同時に把持方向を決め
る必要があるからである。
Vカメラ7による輪郭情報だけから把持対象物12の把
持位置を決めることができない。なぜなら、上記把持対
象物12の向き、つまりくぼみ13が映像画面のどちら
側にあるかを識別して把持位置と同時に把持方向を決め
る必要があるからである。
そこで、この発明のロボットハンドH!においては、ま
ず従来と同様、第3〜5図に示すように、輪郭だけで決
まる把持対象物12の位置を求める。
ず従来と同様、第3〜5図に示すように、輪郭だけで決
まる把持対象物12の位置を求める。
しかし、第5図の映像状態では、把持対象物12の輪郭
と位置は求まっても、照明装置8による外部からの照明
だけでは、第11図の映像20に破線で示すように、く
ほみ1・3が画面10のどちら側、つまりA位置、B位
置のいずれにあるか識別できない。
と位置は求まっても、照明装置8による外部からの照明
だけでは、第11図の映像20に破線で示すように、く
ほみ1・3が画面10のどちら側、つまりA位置、B位
置のいずれにあるか識別できない。
従って、次の段階では、上記くぼみ13がA。
Bのいずれの位置にあるかを1点的に調べることになる
。すなわち、パーム3の回転を含めたフィンガー4,4
の動きにより、投光器14によるマークの投射方向を制
御しつつ、その投光器14の位置とITVカメラ7で観
測したマークの映像位置とから、ITVカメラ7の先端
からマークまでの距離を算出する。
。すなわち、パーム3の回転を含めたフィンガー4,4
の動きにより、投光器14によるマークの投射方向を制
御しつつ、その投光器14の位置とITVカメラ7で観
測したマークの映像位置とから、ITVカメラ7の先端
からマークまでの距離を算出する。
そして、投射された各マークまでの距離情報を果めで得
られたところの把持対象物12の表面形状に関する情報
を制御機構に人力し、これをロボットハンドH2の駆動
情報とする。
られたところの把持対象物12の表面形状に関する情報
を制御機構に人力し、これをロボットハンドH2の駆動
情報とする。
上述のように、この発明は、パームに視覚装置を備えた
ロボットハンドのフィンガーに、スポット光等のマーク
を投射する投光器等の光源を取り付けて構成し、従来の
外部層重のみでは識別困難であった把持対象物の凹凸、
くぼみ等の表面形状に関する情報、或いは従来の照明だ
けでは観測できなかった把持対象物の陰の部分に関する
情報をも把握できるようにしたので、従来のロボットハ
ンドではハンドリングできなかった表向に凹凸、くぼみ
等のある把持対象物であっても、正確かつ容易にハンド
リングできるという効果を有する。
ロボットハンドのフィンガーに、スポット光等のマーク
を投射する投光器等の光源を取り付けて構成し、従来の
外部層重のみでは識別困難であった把持対象物の凹凸、
くぼみ等の表面形状に関する情報、或いは従来の照明だ
けでは観測できなかった把持対象物の陰の部分に関する
情報をも把握できるようにしたので、従来のロボットハ
ンドではハンドリングできなかった表向に凹凸、くぼみ
等のある把持対象物であっても、正確かつ容易にハンド
リングできるという効果を有する。
第1図は従来のロボットハンドの斜視図、第2図は第1
図のロボットハンドの使用状態を示1イ視図、第3図、
5@4図および第5図は従来のロボットハンドの視覚装
置で観測した把持対象物の映像を示す図、第6図はくほ
みを有する把持対象物の斜視図、第7図はこの発明によ
るロボットハンドの斜視図、第8図乃至第10図はこの
発明のロボットハンドにおける距離測定の原理を説明す
るだめの図、第11図はこの発明のロボットハンドの視
覚装置で観測した把持対象物の映像を示す図でるる。 HI・・・・・・・・・従来のロボットハンドH2・・
・・・・・・・この発明によるロボットハンド3・・・
・・・・・・−・−パーム 4・・・・・・・・・・・・フィンガー7・・・・・・
・・・・・・視覚装置であるITVカメラ12・・・・
・・・・・把持対象物 14・・・・・・・・・光源である投光器代理人 葛野
悟−(ほか1名) 第1図 540 第5図 第9図 第10図 第71図
図のロボットハンドの使用状態を示1イ視図、第3図、
5@4図および第5図は従来のロボットハンドの視覚装
置で観測した把持対象物の映像を示す図、第6図はくほ
みを有する把持対象物の斜視図、第7図はこの発明によ
るロボットハンドの斜視図、第8図乃至第10図はこの
発明のロボットハンドにおける距離測定の原理を説明す
るだめの図、第11図はこの発明のロボットハンドの視
覚装置で観測した把持対象物の映像を示す図でるる。 HI・・・・・・・・・従来のロボットハンドH2・・
・・・・・・・この発明によるロボットハンド3・・・
・・・・・・−・−パーム 4・・・・・・・・・・・・フィンガー7・・・・・・
・・・・・・視覚装置であるITVカメラ12・・・・
・・・・・把持対象物 14・・・・・・・・・光源である投光器代理人 葛野
悟−(ほか1名) 第1図 540 第5図 第9図 第10図 第71図
Claims (1)
- パームに視覚装置を備えたロボットハンドのフィンガー
に、前記視覚装置の認識目標となるマークを把持対象物
へ投射する光源を設けて成り、かつその光源の前記視覚
装置に°対する相対位置と、前記マークの前記視覚装置
の光軸に対する投射方向と、前記視覚装置から観測した
前記マークの映像位置とにより、前記把持対象物の形状
を把握する構成にしたことを特徴とするロボットハンド
。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP3878182A JPS58155192A (ja) | 1982-03-11 | 1982-03-11 | ロボツトハンド |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP3878182A JPS58155192A (ja) | 1982-03-11 | 1982-03-11 | ロボツトハンド |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPS58155192A true JPS58155192A (ja) | 1983-09-14 |
Family
ID=12534830
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP3878182A Pending JPS58155192A (ja) | 1982-03-11 | 1982-03-11 | ロボツトハンド |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPS58155192A (ja) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6095605A (ja) * | 1983-10-31 | 1985-05-29 | Nissan Motor Co Ltd | ロボツトのテイ−チデ−タ補正方法 |
| JPS60116005A (ja) * | 1983-11-28 | 1985-06-22 | Yamazaki Mazak Corp | ロボットにおける動作プログラム制御方法 |
| JPS60126805U (ja) * | 1984-02-02 | 1985-08-26 | 三菱電機株式会社 | 産業機械の制御装置 |
| JPS61151887U (ja) * | 1985-03-11 | 1986-09-19 | ||
| JP2009512275A (ja) * | 2005-10-06 | 2009-03-19 | ボーズ・コーポレーション | ラインアレイ電気音響変換 |
| JP2010162638A (ja) * | 2009-01-14 | 2010-07-29 | Toshiba Corp | ロボットハンド |
| WO2019176809A1 (ja) * | 2018-03-14 | 2019-09-19 | 日本電産株式会社 | ロボットハンド、ロボット |
-
1982
- 1982-03-11 JP JP3878182A patent/JPS58155192A/ja active Pending
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6095605A (ja) * | 1983-10-31 | 1985-05-29 | Nissan Motor Co Ltd | ロボツトのテイ−チデ−タ補正方法 |
| JPS60116005A (ja) * | 1983-11-28 | 1985-06-22 | Yamazaki Mazak Corp | ロボットにおける動作プログラム制御方法 |
| JPS60126805U (ja) * | 1984-02-02 | 1985-08-26 | 三菱電機株式会社 | 産業機械の制御装置 |
| JPS61151887U (ja) * | 1985-03-11 | 1986-09-19 | ||
| JP2009512275A (ja) * | 2005-10-06 | 2009-03-19 | ボーズ・コーポレーション | ラインアレイ電気音響変換 |
| JP2010162638A (ja) * | 2009-01-14 | 2010-07-29 | Toshiba Corp | ロボットハンド |
| WO2019176809A1 (ja) * | 2018-03-14 | 2019-09-19 | 日本電産株式会社 | ロボットハンド、ロボット |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPS58177295A (ja) | ロボット制御装置 | |
| WO2016151668A1 (ja) | ティーチング装置及び制御情報の生成方法 | |
| JP6322959B2 (ja) | ロボット、ロボットシステム、及びロボット制御装置 | |
| JP4289619B2 (ja) | 多関節ロボットのツール位置補正方法 | |
| CN107471218A (zh) | 一种基于多目视觉的双臂机器人手眼协调方法 | |
| CN112008692A (zh) | 示教方法 | |
| JPS58155192A (ja) | ロボツトハンド | |
| US10607337B2 (en) | Object inspection system and object inspection method | |
| CN114555240A (zh) | 末端执行器以及末端执行器的控制装置 | |
| JP2010058243A (ja) | ピッキング装置 | |
| CN108544510A (zh) | 一种自动恢复魔方机器人机械手 | |
| JP2023059863A (ja) | 人の両手の実演による双腕ロボットの教示 | |
| WO2023203747A1 (ja) | ロボット教示方法および装置 | |
| JPH06218682A (ja) | 組立用ロボット | |
| WO2016151667A1 (ja) | ティーチング装置及び制御情報の生成方法 | |
| TW201819126A (zh) | 非接觸式的手勢教導機器人 | |
| Vollmann et al. | Manipulator control by calibration-free stereo vision | |
| JP2006297559A (ja) | キャリブレーションシステムおよびロボットのキャリブレーション方法 | |
| JPH07129231A (ja) | 非接触点教示装置 | |
| JPH0790492B2 (ja) | 遠隔操作式マニピユレ−タ装置 | |
| JPH0718544Y2 (ja) | 位置決めシステム用吸着器 | |
| TWI776694B (zh) | 自動化機械手臂系統與機械手臂與其電腦視覺之間的協調方法 | |
| JPS6343564Y2 (ja) | ||
| JP7790238B2 (ja) | コンピュータープログラム、生成方法、および、生成装置 | |
| JP7703996B2 (ja) | 制御システム |