JPH0724767A - ロボットの遠隔操作装置 - Google Patents

ロボットの遠隔操作装置

Info

Publication number
JPH0724767A
JPH0724767A JP5175277A JP17527793A JPH0724767A JP H0724767 A JPH0724767 A JP H0724767A JP 5175277 A JP5175277 A JP 5175277A JP 17527793 A JP17527793 A JP 17527793A JP H0724767 A JPH0724767 A JP H0724767A
Authority
JP
Japan
Prior art keywords
robot
monitor
joint angle
overlay
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5175277A
Other languages
English (en)
Other versions
JP3376029B2 (ja
Inventor
Michihiro Uenohara
道 宏 植之原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP17527793A priority Critical patent/JP3376029B2/ja
Publication of JPH0724767A publication Critical patent/JPH0724767A/ja
Application granted granted Critical
Publication of JP3376029B2 publication Critical patent/JP3376029B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Control Of Position Or Direction (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 (修正有) 【目的】 モニタ画面での立体感の喪失などを補うこと
により作業性の高いロボットの遠隔操作装置を提供す
る。 【構成】 ロボット1の作業環境を撮影する撮影手段2
と、ロボット1の作業環境およびロボット1自身の形状
データを有する環境モデル部5と、ロボット1の現在の
関節角度を関節角度センサの信号値として入力する関節
角度入力部4と、ロボットからの一定距離以内に物体が
ないかどうかをロボットの関節角度と形状データとから
判定する干渉判定部6と、ロボット1からの一定距離以
内に物体がある場合に、形状データと撮影手段2の位置
および向きとからこの物体の画像を計算機により演算す
るオーバレイ表示部7と、撮影手段2により撮影された
実画像とオーバレイ表示部7の画像とをオーバレイ表示
することが可能なモニタ3と、を備える。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はロボットの遠隔操作装置
に係り、特にカメラ等の撮影手段を用いてロボットから
の一定距離以内に接近物体がないかどうかを判定するロ
ボットの遠隔操作装置に関する。
【0002】
【従来の技術】宇宙開発も本格的な実用開発の段階を迎
え、宇宙空間においてさまざまな作業を行う必要が生ま
れつつある。とくに現在、米国・カナダ・ヨーロッパお
よび日本の国際協力により設計作業が進みつつある宇宙
ステーションFREEDOMの運用が開始されると、常
時数人の宇宙飛行士がステーションに滞在し、材料合成
などの各種の実験・測定等を行うようになる。
【0003】また、宇宙ステーションを運用しはじめる
と、ステーションの保守・点検も定期的に行う必要が生
じてくる。そのために、環境条件の厳しい真空の宇宙空
間での作業をロボットに行わせる必要性が存在する。こ
れらの作業は地上あるいは宇宙ステーション内の加圧さ
れた室内からの遠隔操作により行われるのが一般的であ
る。
【0004】また、原子力開発においても、今後、老朽
化してゆく既存の原子力発電所の保守・解体作業などの
高レベル放射能環境でのさまざまな作業が必要となって
くると考えられ、やはり遠隔操作によるロボット作業の
必要性が強まりつつある。
【0005】遠隔操作型のロボットとしては、ロボット
の動作を指令するのにマスターアームを使用するマスタ
スレーブマニピュレータや、動作指令にジョイスティッ
クを使用するものなどがある。またロボットの姿勢を指
令するものや、ロボットの速度を指令するものなど、さ
まざまな種類が存在する。
【0006】一般に遠隔操作をする作業員は、実際の作
業を行う危険な作業環境からは離れた位置にいるため
に、カメラを作業場所に配置し、モニタにより作業環境
の様子を把握することが行われる。
【0007】しかし、カメラによる作業環境の把握には
以下のような問題点が存在する。
【0008】1) 立体感が喪失する。モニタに表示さ
れる2次元の映像からは奥行き方向の距離が把握しにく
い。また、画面奥行き方向の距離がわかりにくいため
に、カメラの方向を頻繁に変化させると、カメラの向い
ている方向の把握が困難になる。
【0009】2) ロボットの操作時にカメラのパン・
チルトの操作も同時に行わなければならずに、作業性が
低下する。
【0010】3) ロボットの操作とともにカメラの向
きを随時変更してゆくことにより、モニタに表示されて
いる画面がどの方向を向いたものであるかがわかりにく
くなる。
【0011】4) それとともにジョイスティックなど
の操縦方向とモニタ画面の方向が一致しなくなることに
よる違和感が生じる。
【0012】5) 全体の位置関係の把握が困難な場合
が存在する。アーム先端などをアップで撮している画面
ではアーム先端以外でのまわりの環境との位置関係が把
握できない。一方、全体を撮影している画面では細かい
部分まで見えず、また周囲の物体の背後の様子が見えな
い。
【0013】以上のような問題点を解決するために、こ
れまでにもさまざまな研究や開発が行われてきた。例え
ば、特開昭58−137574号公報に記載されたもの
は2台のテレビカメラを並置し、その立体虚像に対して
操作ロボットを作業する様にしたマニピュレータの操縦
装置とすることにより立体感の喪失を補い、遠隔操作型
のマスタスレーブマニピュレータの作業性の向上を目指
している。特開昭53−33521号公報に記載された
ものはマニピュレータの動きに合わせてテレビカメラの
向きを制御し、常にマニピュレータの手先部がモニタの
ほぼ中央付近に観察できるようにすることにより、カメ
ラのパン・チルトの操作を不要とすることにより作業性
の向上を目指している。特開昭63−11291号公報
に記載されたものはテレビカメラの位置と姿勢を計測
し、モニタTVの画面上のマニピュレータ本体の動作方
向とジョイスティックなどの操作位置の操作方向が常に
一致するように座標系を変更してゆくことにより、操作
時の違和感をなくすことを目指している。
【0014】しかしながら、立体視により画面奥行き感
を補う方法では大まかな物体の前後関係を把握できるも
のの、奥行き方向の詳細な変位はわかりにくく、正確な
位置決めを行う際などにはやはりカメラの向きを変えた
りすることにより確認をする必要があった。また、マニ
ピュレータの動きとともにカメラのパンとチルトを自動
制御する方法は、カメラのパン・チルトのコントローラ
が必要となる上に、作業者が注視したい箇所は作業や状
況により変化し、必ずしもマニピュレータの手先がモニ
タ中央に来ればよいとは限らないという問題がある。ま
た、マニピュレータの動きとともにカメラが連続的に動
くよりも、ある範囲内の動きの間はカメラが静止してい
た方が位置関係が把握しやすい場合も存在する。
【0015】以上のように遠隔操作時における、立体感
の喪失やカメラの方向制御の問題は部分的な解決方法は
いろいろ提案されているものの、いずれも機能が十分で
はなく、遠隔操作ロボットの作業性が高まらずその適用
範囲が広がらない原因ともなっている。
【0016】一方、近年、テレイグジスタンスの研究が
行われるようになってきており、これらの問題点を根本
的に解決する方法として注目されている。作業者にヘッ
ドマウンテッドディスプレイを装着させ、そこに立体映
像を表示し、作業者の視線や頭部の動きを計測すること
により、視線や頭部の動きに連動させてカメラを制御す
ることによりあたかも作業現場にいるような臨場感を与
えようというものである。しかし、テレイグジスタンス
もいまだ研究段階にとどまっており、ヘッドマウンテッ
ドディスプレイは重く高価である。また、十分な視野を
得るためには人間が作業を行うときに覗きこんだりする
ようにカメラが向きだけでなく位置も移動することが望
まれるが、カメラにそこまでの移動能力を持たせるのは
コスト的にも機能的にも困難であり、本質的に解決困難
な点を含んでいる。
【0017】
【発明が解決しようとする課題】このように従来のロボ
ットの遠隔操作装置では、作業環境に設置されたテレビ
カメラの映像をモニタにより観察しながら作業を行うた
めに、立体感が喪失したりカメラのパンやチルトを制御
することによる作業性の低下や操縦方向と画面方向の違
いによる違和感が存在したりしていた。
【0018】そこで本発明の目的は、ロボットの作業環
境およびロボット自身の形状データを利用し、ロボット
と干渉のおそれがある近接物体などの各種情報を画面に
表示することにより、モニタ画面での立体感の喪失など
を補うことにより作業性の高いロボットの遠隔操作装置
を提供することである。
【0019】
【課題を解決するための手段】上記の目的を達成するた
めに本発明は、遠隔場所に配置されたロボットを遠隔操
作するロボットの遠隔操作装置において、ロボットの作
業環境を撮影する撮影手段と、ロボットの作業環境およ
びロボット自身の形状データを有する環境モデル部と、
ロボットの現在の関節角度を関節角度センサの信号値と
して入力する関節角度入力部と、ロボットからの一定距
離以内に物体がないかどうかをロボットの関節角度と前
記形状データとから判定する干渉判定部と、ロボットか
らの一定距離以内に物体がある場合に、前記形状データ
と前記撮影手段の位置および向きとからこの物体の画像
を計算機により演算するオーバレイ表示部と、前記撮影
手段により撮影された実画像と前記オーバレイ表示部の
画像とをオーバレイ表示することが可能なモニタと、を
備えることを特徴とする。
【0020】また、遠隔場所に配置されたロボットを遠
隔操作するロボットの遠隔操作装置において、ロボット
の作業環境を撮影する撮影手段と、ロボットの作業環境
およびロボット自身の形状データを有する環境モデル部
と、ロボットの現在の関節角度および関節角速度をセン
サの信号値として入力する関節角度角速度入力部と、関
節角度角速度入力部の出力であるロボットの関節角度お
よび関節角速度の値からあらかじめ指定された時間経過
後のロボット関節角度を算出するロボット未来位置予測
部と、ロボット未来位置予測部の出力であるあらかじめ
指定された時間経過後のロボットの関節角度の値とロボ
ット自身および作業環境の形状データからあらかじめ指
定された時間経過後のロボットからの一定距離以内に物
体がないかどうかを判定する干渉判定部と、ロボットか
らの一定距離以内に接近物体がないかどうかをロボット
の関節角度と前記形状データとから判定する干渉判定部
と、ロボットからの一定距離以内に物体がある場合に、
前記形状データと前記撮影手段の位置および向きとから
この接近物体の画像を計算機により演算するオーバレイ
表示部と、前記撮影手段により撮影された実画像と前記
オーバレイ表示部の画像とをオーバレイ表示することが
可能なモニタと、を備えることを特徴とする。
【0021】また、前記オーバレイ表示部が、物体をモ
ニタにオーバレイ表示するだけでなく、ロボットの形状
データ、ロボットの関節角度およびカメラ位置および向
きの値からロボットのモニタ内表示を算出しモニタにオ
ーバレイ表示することを特徴とする。
【0022】また、ロボットの作業環境を撮影する撮影
手段とともに遠隔場所に配置されたロボットを遠隔操作
するロボットの遠隔操作装置において、撮影手段により
撮影された実画像を表示することが可能であるとともに
指示装置によりモニタを指示すると指示されたモニタ内
座標を出力することが可能なモニタと、ロボットの作業
環境およびロボット自身の形状データを有する環境モデ
ル部と、指示装置により指示されたモニタ内座標値に表
示されているロボットの作業環境物体を形状データおよ
びカメラの位置と向きから求める指示物体算出部と、ロ
ボットの現在の関節角度を関節角度センサ信号の値から
入力する関節角度入力部と、ロボットの関節角度の値か
ら指示装置により指示された物体の座標系として形状デ
ータに定義されている座標系でのロボット先端位置およ
び姿勢を算出するロボット相対位置算出部と、ロボット
相対位置算出部の出力であるロボット先端の位置および
姿勢の値をモニタにオーバレイ表示する相対位置オーバ
レイ部とを有することを特徴とする。
【0023】
【作用】ロボットから一定距離以内に物体があることが
判明したときには、物体の形状データおよびカメラの位
置および向きの値からその物体のモニタ内表示を算出し
モニタにオーバレイ表示することにより操作者に物体の
存在を知らせるので、操作者は衝突する以前に移動方向
を変更することにより衝突を避けることができる。ま
た、オーバレイ表示されていないときには一定距離以内
に接近している物体がないことが保証されているので、
操作者はまわりの物体とロボットとの接近を確認するた
めに、ロボットの移動を一端停止させ、カメラを切り替
えて位置を確認することが不要になり、作業性を向上さ
せることができる。
【0024】また、ロボットの現在の関節角度および角
速度の値から、現在の角速度が維持されたとした場合
の、あらかじめ指定された時間経過後のロボット関節角
度の値を計算し、その指定時間経過後のロボット関節角
度の値と前記形状データから、指定時間経過後にロボッ
トと一定距離以内に接近している物体がないかどうかを
干渉判定計算を行うことにより常時判定を行う。ロボッ
トと一定距離以内に接近している物体があることが判明
したときには、物体の形状データおよびカメラの位置お
よび向きの値からその物体のモニタ内表示を算出しモニ
タにオーバレイ表示することにより操作者に物体の存在
を知らせるので、操作者は現在のロボットの移動速度を
維持した場合に衝突することがわかるので、事前に移動
方向を変更することにより衝突を避けることができる。
【0025】また、前記オーバレイ表示部が、物体をモ
ニタにオーバレイ表示するだけでなく、ロボットの形状
データ、ロボットの関節角度およびカメラ位置および向
きの値からロボットのモニタ内表示を算出しモニタにオ
ーバレイ表示することにより、ロボットが作業環境の物
体の背後に位置するために隠れて見えない場合にも、ロ
ボットの現在位置を把握することが可能になり、ロボッ
トが物体の背後に隠れるためにカメラを切り替える必要
がなくなるために作業性を向上させることができる。
【0026】モニタを指示装置により指示すると指示さ
れたモニタ内座標値の値が計算機に入力される。モニタ
内座標値の値が入力されると、ロボットの作業環境およ
びロボット自身の形状データとカメラの位置と向きから
指示されたモニタ内座標値に表示されている物体を求
め、形状データ内においてその指示された物体に定義さ
れた座標系原点の変位および姿勢を獲得する。以後、ロ
ボットの関節角度の値および前記指示物体座標系原点の
変位および姿勢の値からロボット先端の指示物体座標で
の相対位置および姿勢を常時計算し、その数値をモニタ
にオーバレイ表示することにより、操作者はロボットを
位置決めする目標の相対変位や迂回しようとしている物
体との相対変位を数値で常時知ることができるために、
画面奥行き方向の変位も含め正確な相対位置の把握が可
能となる。また、指示装置によりモニタを指示するだけ
で、表示する相対変位の対象物体を変更することが可能
であるために、作業状況の変化に伴い、随時対象物体を
変更してゆくことにより、その状況に応じた必要な情報
を得ることができ、ロボットの移動に伴いカメラを随時
切り替えて行く必要もなくなり作業性を向上させること
ができる。
【0027】
【実施例】以下、図面を参照して本発明の実施例を説明
する。まず図1を参照して本発明の第1実施例を説明す
る。図1に示されるように、ロボットの遠隔操作装置
は、作業環境において作業を行うロボット1と、作業環
境の状況をモニタするための撮影手段2であるテレビカ
メラと、テレビカメラで撮影された画像を作業者が観察
するためのモニタ3と、ロボットの現在の関節角度をロ
ボットコントローラから入力する関節角度入力部4と、
ロボットの作業環境およびロボット自身の形状データを
3次元ソリッドモデルとして有する環境モデル部5と、
ロボットの関節角度の値と形状データから、ロボットと
あらかじめ指定された一定距離以内に接近している物体
が存在するかどうかを判定する干渉判定部6と、干渉判
定部6で一定距離以内に接近している物体が存在するこ
とが判明した場合に、接近物体のモニタ内表示を求めモ
ニタにオーバレイ表示するオーバレイ表示部7から構成
される。
【0028】環境モデル部5は、ロボットの作業環境お
よびロボット自身を物体に相当するソリッドの組み合わ
せで表現して保持しており、各ソリッドはそのソリッド
を構成する面・ループ・稜線および頂点のデータを保持
するとともに、そのソリッドに固定された座標系が定義
され、その座標系の基準となる座標系からの変位および
座標変位行列の値を保持している。
【0029】また、各面はその面を構成するループのデ
ータおよびその面の方程式を保持しており、各ループは
そのループを構成する稜線のデータを保持している。各
稜線はその稜線の両端点のデータおよび稜線の両側の面
のデータおよび稜線の両端点に接続されている他の稜線
のデータを保持している。各頂点はその座標値の値を保
持している。従って、形状のソリッドとしての情報を完
全に保持しており、各ソリッド間の干渉の有無の判定に
必要な情報を保持している。
【0030】また、作業環境を構成する物体に関して
は、実際の形状と等しくなるようにモデリングされた表
示用ソリッドとともに、実際の形状よりもあらかじめ指
定された距離だけ拡張した形状でモデリングされている
干渉判定用ソリッドが環境モデル部5には含まれてい
る。つまり、作業環境を構成する物体に関しては、全ソ
リッドについて、表示用ソリッドとともに干渉判定用ソ
リッドが存在している。干渉判定用ソリッドの拡張幅は
オーバレイ表示するかどうかの基準となるロボットと作
業環境の物体との距離に等しくしてある。
【0031】また、ロボット1および撮影手段2は、一
般に人間にとって適さない作業環境に設置されており、
作業者はその作業環境から離れた安全な場所でモニタ3
を見ながら、ジョイスティックやマスタアームなどのロ
ボットの動作入力装置によりロボットの動作を指示す
る。
【0032】次に、図1を参照して本実施例の作用につ
いて説明する。関節角度入力部4は、ロボットコントロ
ーラから一定の時間間隔で関節角度の値を入力する。干
渉判定部6は、関節角度入力部4の出力であるロボット
1の現在の関節角度の値を入力する。
【0033】干渉判定部にはあらかじめロボット1の運
動学方程式が設定されており、関節角度の値からロボッ
トの環境モデル部5に含まれるロボットを構成する各ソ
リッドの座標変換行列の値を算出し設定する。ロボット
を構成する全ソリッドの座標変換行列の値を設定した後
に、環境モデル部5に含まれる作業環境を構成する全干
渉判定用ソリッドとロボットを構成する全ソリッドの間
の干渉判定計算を行う。干渉してる物体が存在する場合
には、ロボットとあらかじめ指定された距離以内に接近
している物体が存在することになる。なぜならば、干渉
判定用ソリッドは実際の形状よりも、あらかじめ指定さ
れた距離だけ拡張した形状にモデリングされているから
である。
【0034】干渉判定部6で干渉している物体が検出さ
れた場合には、その干渉物体名をオーバレイ表示部7に
通知する。オーバレイ表示部はあらかじめ撮影手段2で
あるテレビカメラの位置・姿勢および焦点距離等の値を
保持しており、干渉判定部の出力である干渉物体の表示
用ソリッドの形状データを環境モデル部5から入力し、
投影変換計算を行うことによりモニタでの表示を算出
し、モニタ3にオーバレイ表示する。
【0035】従って、ロボットがまわりの作業環境物体
とあらかじめ指定された距離以内に接近すると、モニタ
3にその物体が撮影手段2で撮影された実画像とともに
オーバレイ表示されるために、その状況がモニタ3を常
時注視しながら作業を行っている作業者には一目瞭然に
わかり、衝突する前にロボットの運動方向を変更するこ
とが可能になる。また、作業者の操作によりロボットが
接近物体から遠ざかり、干渉判定部6が接近物体がない
と出力するようになった場合には、オーバレイ表示部7
はオーバレイ表示を中止する。よって、作業者はロボッ
トが接近物体から遠ざかったことがやはり一目瞭然にわ
かる。
【0036】さらに、あらかじめ指定した距離以内に接
近した場合にはオーバレイ表示がされることがわかって
いるために、作業者は必要以上にロボットとまわりの作
業環境物体との位置関係を把握するために、カメラを切
り替えたりする必要がなくなり、作業性の向上がはから
れる。
【0037】次に図2を参照して本発明の第2実施例に
ついて説明する。図2に示されるように、ロボットの遠
隔操作装置は、作業環境において作業を行うロボット8
と、作業環境の状況をモニタするための撮影手段9であ
るテレビカメラと、テレビカメラで撮影された画像を作
業者が観察するためのモニタ10と、ロボットの現在の
関節角度および角速度の値から、ロボットコントローラ
から入力する関節角速度の値が維持されたと仮定した場
合に、あらかじめ設定された時刻後のロボット関節角度
の値を算出するロボット未来位置予測部12と、ロボッ
トの作業環境およびロボット自身の形状データを3次元
ソリッドモデルで有する環境モデル部13と、ロボット
の関節角度の値と形状データから、ロボットとあらかじ
め指定された一定距離以内に接近している物体が存在す
るかどうかを判定する干渉判定部14と、干渉判定部1
4で一定距離以内に接近している物体が存在することが
判明した場合に、接近物体のモニタ内表示を求めたモニ
タにオーバレイ表示するオーバレイ表示部15から構成
される。
【0038】環境モデル部13は、ロボットの作業環境
およびロボット自身を物体に相当するソリッドの組み合
わせで表現して保持しており、各ソリッドはそのソリッ
ドを構成する面・ループ・稜線および頂点のデータを保
持するとともに、そのソリッドに固定された座標系が定
義され、その座標系の基準となる座標系からの変位およ
び座標変換行列の値を保持している。
【0039】また、各面はその面を構成するループのデ
ータおよびその面の方程式を保持しており、各ループは
そのループを構成する稜線のデータを保持している。各
稜線はその稜線の両端点のデータおよび稜線の両側の面
のデータおよび稜線の両端点に接続されている他の稜線
のデータを保持している。各頂点はその座標値の値を保
持している。従って、形状のソリッドとしての情報を完
全保持しており、各ソリッド間の干渉の有無の判定に必
要な情報を保持している。
【0040】また、作業環境を構成する物体に関して
は、実際の形状と等しくなるようにモデリングされた表
示用ソリッドとともに、実際の形状よりもあらかじめ指
定された距離だけ拡張した形状でモデリングされている
干渉判定用ソリッドが環境モデル部5には含まれてい
る。つまり、作業環境を構成する物体に関しては、全ソ
リッドについて、表示用ソリッドとともに干渉判定用ソ
リッドが存在している。干渉判定用ソリッドの拡張幅は
オーバレイ表示するかどうかの基準となるロボットと作
業環境の物体との距離に等しくしてある。
【0041】また、ロボット8および撮影手段9は、一
般に人間にとって適さない作業環境に設置されており、
作業者はその作業環境から離れた安全な場所でモニタ1
0を見ながらジョイスティックやマスタアームなどのロ
ボットの動作入力装置によりロボットの動作を指示す
る。
【0042】次に、本実施例の作用を図2を参照して説
明する。関節角度角速度入力部11は、ロボットコント
ローラから一手の時間間隔で関節角度および角速度の値
を入力する。
【0043】ロボット未来位置予測部12は、関節角度
角速度入力部11の出力であるロボットの関節角度θお
よび各速度ωの値から、角速度ωが一定で維持されたと
仮定した場合の、あらかじめ設定された時間△t経過後
のロボット関節角度θnを以下のように算出する。
【0044】 θn=θ+ω×△t (1) 干渉判定部14は、ロボット未来位置予測部12の出力
であるロボット8のあらかじめ設定された時間△t経過
後の関節角度の値を入力する。干渉判定部14にはあら
かじめロボット8の運動学方程式が設定されており、関
節角度の値からロボットの環境モデル部13に含まれる
ロボットを構成する各ソリッドの座標変換行列の値を算
出し設定する。ロボット8を構成する全ソリッドの座標
変換行列の値を設定した後に、環境モデル部13に含ま
れる作業環境を構成する全干渉判定用ソリッドとロボッ
トを構成する全ソリッドの間の干渉判定計算を行う。干
渉している物体が存在する場合には、ロボットとあらか
じめ指定された距離以内に接近している物体が存在する
ことになる。なぜならば、干渉判定用ソリッドは実際の
形状よりも、あらかじめ指定された距離だけ拡張した形
状にモデリングされているからである。
【0045】干渉判定部14で干渉している物体が検出
された場合には、その干渉物体名をオーバレイ表示部1
5に通知する。オーバレイ表示部15はあらかじめ撮影
手段9であるテレビカメラの位置・姿勢および焦点距離
等の値を保持しており、干渉判定部14の出力である干
渉物体の表示用ソリッドの形状データを環境モデル部1
3から入力し、投影変換計算を行うことによりモニタで
の表示を算出し、モニタ10にオーバレイ表示する。
【0046】従って、現在の速度を維持した場合に、ロ
ボット8がまわりの作業環境物体とあらかじめ指定され
た距離以内に接近する状況になると、モニタ10にその
物体が撮影手段9で撮影された実画像とともにオーバレ
イ表示されるために、その状況がモニタ10を常時注視
しながら作業を行っている作業者には一目瞭然にわか
り、衝突する前にロボットの運動方向を変更することが
可能になる。また、作業者の操作によりロボットが接近
物体から遠ざかり、干渉判定部14が接近物体がないと
出力するようになった場合には、オーバレイ表示部15
はオーバレイ表示部を中止する。よって、作業者はロボ
ットがまわりの作業環境の物体とは衝突しない運動方向
にあることがやはり一目瞭然にわかる。
【0047】さらに、現在の速度を維持した場合にあら
かじめ設定した時間経過後にあらかじめ指定した距離以
内に接近する場合にはオーバレイ表示がされることがわ
かっているために、作業者は必要以上にロボットとまわ
りの作業環境物体との位置関係や現在のロボットの運動
方向を把握するために、カメラを切り替えたりする必要
がなくなり、作業性の向上がはかられる。
【0048】また、第1実施例と第2実施例とを組み合
わせることにより、あらかじめ指定した距離以内に接近
している物体が存在する場合にはある色でオーバレイ表
示を行い、現在の速度を維持したときにあらかじめ指定
した距離以内に接近する場合には別の色でオーバレイ表
示するようにすることにより、ロボットとまわりの物体
との位置関係およびロボットの運動方向をより詳細に作
業者に通知することが可能になる。
【0049】さらに、環境モデル部に含まれるロボット
の形状データ・関節角度の値およびカメラの位置・向き
の値からロボットのモニタ内表示を算出し、モニタにオ
ーバレイ表示することにより、たとえロボットが他の物
体の背後に隠れて見えない位置にいる場合でも、オーバ
レイ表示によりロボット位置を把握することが可能にな
る。その結果、作業者がカメラを切り替える必要が少な
くなるとともに、カメラを切り替えることにより視野方
向の変化による違和感の発生を防ぐことができ、作業性
の向上をはかることができる。
【0050】次に図3を参照して本発明の第3実施例に
ついて説明する。図3に示されるように、本実施例は、
作業環境において作業を行うロボット16と、作業環境
の状況をモニタするための撮影手段17であるテレビカ
メラと、テレビカメラで撮影された画像を作業者が観察
するためのモニタ18と、モニタ内座標値を指示する指
示装置19と、指示装置19により指示されたモニタ内
座標値に表示されている物体の環境モデル部22で定義
された物体名を求める指示物体算出部20と、現在の関
節角度をロボットコントローラから入力する関節角度入
力部21と、ロボットの作業環境およびロボット自身の
形状データを3次元ソリッドモデルで有する環境モデル
部22と、ロボットの関節角度の値と形状データに含ま
れる指示物体の座標変換行列の値から、ロボット先端の
指示物体座標系での位置および姿勢の値を算出するロボ
ット相対位置算出部23と、ロボット相対位置算出部2
3で算出された指示物体座標系でのロボット先端位置お
よび姿勢の値をモニタ画面にオーバレイ表示する相対位
置オーバレイ部24から構成される。
【0051】環境モデル部22は、ロボットの作業環境
およびロボット自身を物体に相当するソリッドの組み合
わせで表現して保持しており、各ソリッドはそのソリッ
ドを構成する面・ループ・稜線および頂点のデータを保
持するとともに、そのソリッドに固定された座標系が定
義され、その座標系の基準となる座標系からの変位およ
び座標変換行列の値を保持している。また、各面はその
面を構成するループのデータおよびその面の方程式を保
持しており、各ループはそのループを構成する稜線のデ
ータを保持している。各稜線はその稜線の両端点のデー
タおよび稜線の両側の面のデータおよび稜線の両端点に
接続されている他の稜線のデータを保持している。各頂
点はその座標値の値を保持している。
【0052】また、ロボット16および撮影手段17
は、一般に人間にとって適さない作業環境に設置されて
おり、作業者はその作業環境から離れた安全な場所でモ
ニタ18を見ながらジョイスティックやマスタアームな
どのロボットの動作入力装置によりロボットの動作を指
示する。
【0053】次に、本実施例の作用を図3を参照して説
明する。作業者が指示装置19を用いてモニタ18を指
示すると、指示されたモニタ内座標値の値が指示物体算
出部20に入力される。指示装置19は通常、計算機の
マウスやタッチペンなどである。指示物体算出部20で
は、あらかじめ設定されたカメラの位置・向きおよび焦
点距離の値などと環境モデル部22に含まれる形状デー
タから、指示装置19で指示されたモニタ内座標値に表
示されている物体を求める。
【0054】以下に指示されたモニタ内座標値に表示さ
れている物体を求める方法を説明する。
【0055】まずカメラの位置・向きおよび焦点距離な
どの値と環境モデル部22に含まれる形状データから、
代表的な陰面消去法であるZバッファ法で用いられるZ
バッファを計算する。つまり、モニタの分解能の大きさ
の配列を用意し、配列の各要素をモニタの各画素に対応
させ、各画素に表示されている物体のスクリーン座標で
奥行き方向座標値であるZ値を各配列要素に記憶させ
る。スクリーン座標とは、モニタ画面内にXY軸を、モ
ニタ画面と垂直方向にZ軸をとり、モニタ画面中心を原
点にとる座標系のことである。また、この配列をZバッ
ファと呼ぶ。通常、陰面消去ではZバッファの各要素に
RGBの色を表すデータおよびZ値を記憶させるが、こ
こでは色データのかわりに表示されている物体のソリッ
ド名を記憶させる。このようなZバッファをあらかじめ
計算し記憶しておくことにより、指示装置19で指示さ
れたモニタ内座標値におけるZバッファの値を参照する
だけで指示された物体名を求めることができる。なお、
カメラの向きや倍率を変更した場合には、Zバッファを
再計算する必要がある。
【0056】ロボット相対位置算出部23では、関節角
度入力部21からロボットの関節角度の値を入力し、あ
らかじめ設定されているロボット16の運動学方程式を
計算することにより、基準となる座標系でのロボット1
6の先端位置および姿勢の値を計算した後に、指示物体
算出部20の出力である指示物体の座標変換行列を環境
モデル部22から入力し、座標変換計算を行うことによ
り、指示物体の座標系でのロボット先端位置および姿勢
の値を算出する。
【0057】相対位置オーバレイ部24では、ロボット
相対位置算出部23の出力である指示物体の座標系での
ロボット先端位置および姿勢の値をモニタにオーバレイ
表示する。従って、作業者は撮影手段17であるテレビ
カメラで撮影された作業環境が表示されているモニタを
注視しながら作業を行いながら、オーバレイ表示されて
いる指示装置により指示した物体とロボット先端との相
対変位の値を見ることとができる。モニタ画面からは奥
行き方向の位置関係が把握できにくいことが多いが、以
上のようにその場の状況で重要となる物体との相対位置
が数値でモニタ上に表示させることにより、作業者は相
対位置変位を数値として正確に把握することが可能にな
り、カメラをいろいろ切り替えて位置関係を把握する必
要がなくなり、作業性の向上をはかることができる。
【0058】また、マウスやタッチペンなどの指示装置
によりモニタを指示するだけで、モニタ画面に表示する
相対座標値の対象となる物体を変更することが可能であ
るので、ロボットの移動に伴い随時対象物体を変更して
ゆくことにより、ひとつのカメラによる画面を見続ける
ことにより作業を遂行することも可能になる。ひとつの
カメラによる画面で作業を実行することにより、カメラ
切り替えによる時間が節約できるだけでなく、カメラ切
り替えによる視野方向の変化やカメラ視野方向とジョイ
スティックなどの操作方向の違いによる違和感の発生を
防ぐことができ、作業性の向上がはかられる。なお、座
標値の値はモニタ画面上にオーバレイ表示できない場合
には隣接する計算機画面等に表示してもかまわない。ま
た、第一の実施例および第二の実施例と組み合わせるこ
とが可能である。
【0059】
【発明の効果】以上説明したように、本発明の構成によ
れば、ロボットの作業環境およびロボット自身の形状デ
ータを利用し、近接物体などの各種情報を作業環境の実
画像にオーバレイ表示することにより、モニタ画面を通
しての作業における立体感の喪失などの情報の欠落を補
い、ロボットの遠隔操作における作業性の向上をはかる
ことができる。
【図面の簡単な説明】
【図1】本発明のロボットの遠隔操作装置の第1実施例
の構成を示すブロック図。
【図2】本発明のロボットの遠隔操作装置の第2実施例
の構成を示すブロック図。
【図3】本発明のロボットの遠隔操作装置の第3実施例
の構成を示すブロック図。
【符号の説明】
1 ロボット 2 撮影手段 3 モニタ 4 関節角度入力部 5 環境モデル部 6 干渉判定部 7 オーバレイ表示部 8 ロボット 9 撮影手段 10 モニタ 11 関節角度角速度入力部 12 ロボット未来位置予測部 13 環境モデル部 14 干渉判定部 15 オーバレイ表示部 16 ロボット 17 撮影手段 18 モニタ 19 指示装置 20 指示物体算出部 21 関節角度入力部 22 環境モデル部 23 ロボット相対位置算出部 24 相対位置オハーレス部

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】遠隔場所に配置されたロボットを遠隔操作
    するロボットの遠隔操作装置において、ロボットの作業
    環境を撮影する撮影手段と、ロボットの作業環境および
    ロボット自身の形状データを有する環境モデル部と、ロ
    ボットの現在の関節角度を関節角度センサの信号値とし
    て入力する関節角度入力部と、ロボットからの一定距離
    以内に物体がないかどうかをロボットの関節角度と前記
    形状データとから判定する干渉判定部と、ロボットから
    の一定距離以内に物体がある場合に、前記形状データと
    前記撮影手段の位置および向きとからこの物体の画像を
    計算機により演算するオーバレイ表示部と、前記撮影手
    段により撮影された実画像と前記オーバレイ表示部の画
    像とをオーバレイ表示することが可能なモニタと、を備
    えることを特徴とするロボットの遠隔操作装置。
JP17527793A 1993-07-15 1993-07-15 ロボットの遠隔操作装置 Expired - Fee Related JP3376029B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17527793A JP3376029B2 (ja) 1993-07-15 1993-07-15 ロボットの遠隔操作装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17527793A JP3376029B2 (ja) 1993-07-15 1993-07-15 ロボットの遠隔操作装置

Publications (2)

Publication Number Publication Date
JPH0724767A true JPH0724767A (ja) 1995-01-27
JP3376029B2 JP3376029B2 (ja) 2003-02-10

Family

ID=15993324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17527793A Expired - Fee Related JP3376029B2 (ja) 1993-07-15 1993-07-15 ロボットの遠隔操作装置

Country Status (1)

Country Link
JP (1) JP3376029B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002219684A (ja) * 2001-01-24 2002-08-06 Fuji Electric Co Ltd ロボット監視システム
JP2003103038A (ja) * 2001-09-28 2003-04-08 Ishikawajima Harima Heavy Ind Co Ltd ロボット競技システム
JP2009006410A (ja) * 2007-06-26 2009-01-15 Fuji Electric Systems Co Ltd 遠隔操作支援装置および遠隔操作支援プログラム
JP2020069572A (ja) * 2018-10-31 2020-05-07 ファナック株式会社 ロボットシステム
JP2021181134A (ja) * 2020-05-19 2021-11-25 株式会社東芝 作業ロボットの操作支援装置、方法及びプログラム
JP2022183999A (ja) * 2021-05-31 2022-12-13 株式会社Jvcケンウッド 遠隔操作装置及び遠隔操作方法
CN115519546A (zh) * 2022-10-25 2022-12-27 中国科学院国家空间科学中心 一种基于智能视觉的天地协同空间科学实验机器人

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017109912A1 (ja) 2015-12-24 2017-06-29 オリンパス株式会社 医療用マニピュレータシステムとその画像表示方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01209505A (ja) * 1988-02-17 1989-08-23 Toshiba Corp 遠隔操作ロボットの教示装置
JPH02116494A (ja) * 1988-10-24 1990-05-01 Fujitsu Ltd ロボットの遠隔操作装置
JPH02180581A (ja) * 1988-12-29 1990-07-13 Fujitsu Ltd ロボットの遠隔操作装置
JPH0355194A (ja) * 1989-07-21 1991-03-08 Fujitsu Ltd ロボットの遠隔操作装置
JPH03213278A (ja) * 1990-01-12 1991-09-18 Fujitsu Ltd ロボットの遠隔操作支援方式
JPH0577174A (ja) * 1991-09-20 1993-03-30 Nec Corp ロボツト制御装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01209505A (ja) * 1988-02-17 1989-08-23 Toshiba Corp 遠隔操作ロボットの教示装置
JPH02116494A (ja) * 1988-10-24 1990-05-01 Fujitsu Ltd ロボットの遠隔操作装置
JPH02180581A (ja) * 1988-12-29 1990-07-13 Fujitsu Ltd ロボットの遠隔操作装置
JPH0355194A (ja) * 1989-07-21 1991-03-08 Fujitsu Ltd ロボットの遠隔操作装置
JPH03213278A (ja) * 1990-01-12 1991-09-18 Fujitsu Ltd ロボットの遠隔操作支援方式
JPH0577174A (ja) * 1991-09-20 1993-03-30 Nec Corp ロボツト制御装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002219684A (ja) * 2001-01-24 2002-08-06 Fuji Electric Co Ltd ロボット監視システム
JP2003103038A (ja) * 2001-09-28 2003-04-08 Ishikawajima Harima Heavy Ind Co Ltd ロボット競技システム
JP2009006410A (ja) * 2007-06-26 2009-01-15 Fuji Electric Systems Co Ltd 遠隔操作支援装置および遠隔操作支援プログラム
JP2020069572A (ja) * 2018-10-31 2020-05-07 ファナック株式会社 ロボットシステム
US11126859B2 (en) 2018-10-31 2021-09-21 Fanuc Corporation Robot system
JP2021181134A (ja) * 2020-05-19 2021-11-25 株式会社東芝 作業ロボットの操作支援装置、方法及びプログラム
JP2022183999A (ja) * 2021-05-31 2022-12-13 株式会社Jvcケンウッド 遠隔操作装置及び遠隔操作方法
CN115519546A (zh) * 2022-10-25 2022-12-27 中国科学院国家空间科学中心 一种基于智能视觉的天地协同空间科学实验机器人

Also Published As

Publication number Publication date
JP3376029B2 (ja) 2003-02-10

Similar Documents

Publication Publication Date Title
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP5390813B2 (ja) 空間情報表示装置及び支援装置
RU2012142510A (ru) Роботизированная хирургическая системы с усовершенствованным управлением
JPH06317090A (ja) 3次元表示装置
US11618166B2 (en) Robot operating device, robot, and robot operating method
JP2014079824A (ja) 作業画面表示方法および作業画面表示装置
JPH08132372A (ja) ロボットの制御方法
CN111487946A (zh) 机器人系统
JP7517803B2 (ja) ロボット教示システム、画像生成方法、及びプログラム
JP2018202541A (ja) 遠隔作業ロボット制御システムおよび遠隔作業ロボットの制御方法
JPH0724767A (ja) ロボットの遠隔操作装置
US12226914B2 (en) Generation of image for robot operation
JPH05318361A (ja) 物体操作方式
JP2654899B2 (ja) 操作型マニピュレータの教示装置および操作型マニピュレータによる自動作業方法
JPH03213278A (ja) ロボットの遠隔操作支援方式
JPH0790492B2 (ja) 遠隔操作式マニピユレ−タ装置
JPH07328971A (ja) Tvカメラ付マニピュレータ
JP2520660B2 (ja) 遠隔操作式マニピユレ―タ装置
JP2018164223A (ja) 表示システム
JPH10249786A (ja) マニピュレータの制御装置および操作支援装置
KR102735386B1 (ko) 짐벌 기구를 이용한 로봇 매니퓰레이터 제어 장치 및 방법
KR20160094105A (ko) 로봇 제어 시각화 장치
Brooks et al. Operator vision aids for space teleoperation assembly and servicing
JPH06270076A (ja) 遠隔操作用カメラ制御装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021115

LAPS Cancellation because of no payment of annual fees