JPH085018B2 - 遠隔マニピユレ−シヨン方法及び装置 - Google Patents

遠隔マニピユレ−シヨン方法及び装置

Info

Publication number
JPH085018B2
JPH085018B2 JP61039232A JP3923286A JPH085018B2 JP H085018 B2 JPH085018 B2 JP H085018B2 JP 61039232 A JP61039232 A JP 61039232A JP 3923286 A JP3923286 A JP 3923286A JP H085018 B2 JPH085018 B2 JP H085018B2
Authority
JP
Japan
Prior art keywords
operator
slave
data
skill
plan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP61039232A
Other languages
English (en)
Other versions
JPS62199376A (ja
Inventor
芳明 市川
誠 妹尾
正憲 鈴木
上村  博
文雄 富沢
栄 杉山
正祥 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP61039232A priority Critical patent/JPH085018B2/ja
Priority to EP87102609A priority patent/EP0235730B1/en
Priority to DE8787102609T priority patent/DE3762557D1/de
Priority to US07/019,601 priority patent/US4837734A/en
Publication of JPS62199376A publication Critical patent/JPS62199376A/ja
Publication of JPH085018B2 publication Critical patent/JPH085018B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Program-control systems
    • G05B19/02Program-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the program is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/427Teaching successive positions by tracking the position of a joystick or handle to control the positioning servo of the tool head, leader-follower control

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)
  • Control By Computers (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はマスタ及びスレーブを用いた遠隔マニピユレ
ーシヨン方法及び装置に関する。
〔従来の技術〕
遠隔マニピユレーシヨンは、人間がマスタマニビユレ
ータまたは操作レバー等(以下、両者を合わせてマスタ
と呼ぶ)を操作し、その操作に応じてスレーブマニピユ
レータ(以下、スレーブと呼び)が動作し作業をするこ
とによつて実施する。従来の多くのマニピユレーシヨン
装置は、マスタの姿勢にスレーブの姿勢を従わせ、スレ
ーブにかかる反力をマスターを介して人間に伝えるよう
に製作されており、通常スレーブの姿勢や作業状況をモ
ニタするためのTVカメラ及びTVデイスプレイを併用し、
操作を実施する。またプロシーデイングズ オブ'85イ
ンターナシヨナル コンフアレンス オン アドバンス
ト ロボテイツクス(1985年)第329頁から第336頁(Pr
oceedings of'85 International Conference on Advanc
ed Robotics(1985年)第329〜336頁)において論じら
れているように、人間がコマンドを入力することによつ
て、スレーブの動きの一部にコンピユータが拘束(例え
ばスレーブの手先を水平に維持するなどの拘束)を加
え、人間の手動操作の一部を介助する装置もある。
〔発明が解決しようとする問題点〕
上記従来技術には、人間がマスタを介して、離れた所
に置かれたスレーブを間接的に動かし作業をすることか
らくる困難さや、操作のわずらわしさが伴う。
本発明の目的は、操作者の技能の程度に適した操作手
順を自動的に決定し、コンピユータによる自動操作と人
間による手動操作を織り混ぜながら作業を遂行する遠隔
マニピユレーシヨン方法及び装置を得ることにある。
〔問題点を解決するための手段〕
上記目的を達成するため本発明は、マスタ及びスレー
ブを用いた遠隔マニピユレーシヨンにおいて、操作者の
技能の程度を示すデータ及び与えられた作業目標から手
動操作部分と自動操作部分を織り混ぜた手順プランを作
成し、この手順プランに沿つて、自動操作部分は計算機
による運動管理によつて自動的に実行し、手動操作部分
は操作者による手動操作により実行するようにしたこと
を特徴とするものである。
また、本発明の他の特徴は、操作者の技能データ及び
作業目標から手動操作と自動操作を織り混ぜた手順を作
成するプラン作業手段、手動操作時の支援動作や自動操
作を実行するスレーブ動作管理手段、及び手動操作時に
人間の操作をうながし円滑に作業を遂行すべく管理する
インターフエース手段を設け、まず手順のプラを作成
し、次いでこれを順次実行することにある。
〔作用〕
プラン作成手段は、操作者技能データ及び与えられた
作業目標から、自動操作と手動操作を織り混ぜた手順を
作成する。これによつて技能の程度の異なる操作者に対
しても常に適切な操作手順を作成できる。スレーブ動作
管理手段は、自動操作の実行及び手動操作の際の支援動
作を実行する。これによつて不必要に操作者を煩わせず
に作業を進めることができる。インターフエース手段
は、手動操作時に人間の操作をうながすと共に、力覚感
などをフイードバツクする。これによつて操作者は実施
すべき操作の内容を理解し、円滑に作業を進めることが
できる。
〔実施例〕
まず、本発明を発明する要因となつた知見について説
明する。遠隔マニピユレーシヨンに人工知能を応用し、
作業の一部をコンピユータを分担させることが本発明の
出発点である。しかしながら、どのような作業や動作を
コンピユータと人間に分担したら良いかを決定すること
は容易ではない。人間が遠隔マニピユレーシヨンをする
際に特有の問題として、TVモニタ等を見ながら離れたと
ころにあるスレーブを間接的に操作することの困難さが
あげられる。このような困難な作業を実施するために
は、方向感覚や機械系、制御系のくせに対する感覚など
を体得する必要がある。実際にマニピユレーシヨン作業
を実施してみると、このような技能には、初歩者と熟練
者の間で大きな開きがあり、熟練者にはできて初歩者に
はできない操作や、同じ作操でも速さや正確さにかなり
差異のあることがわかつた。例をあげると、脆弱なもの
を適切な力で把めるか、はめ合い作業ができるか、位置
決め、軸合せの正確さ、手先を所望の位置に移動するま
での時間や円滑さなど様々である。また熟練者でも2〜
3時間を経過すると疲労し、極端に技能が低下した。
一方、コンピユータがする操作については、粗い精度
での手先の位置決めなどは極めて速くできるが、障害物
を回避しながらの手先の移動や、精密な位置合わせなど
には多くの時間を要する。また人間にしかできない操作
もある。
従つて、人間が担当すべきもの、コンピユータが担当
すべきもの、人間の技能の程度によりコンピユータない
しは人間が担当すべきものがある。このような知見か
ら、まず作業の目的と人間の技能に合わせて、コンピユ
ータの操作、人間の操作あるいは両者の協調操作より成
る作業手順のプランを作成し、コンピユータが実行する
部分は自動時に実施し、人間の操作部分では人間に操作
をうながすことが、遠隔マニピユレーシヨンを最も円滑
かつ速やかに実施できる方法であると考えるに至つた。
以下、本発明の一実施例を第1図により説明する。本
実施例は、マスタ101とTVモニタ102に接続されたインタ
ーフエース手段103、プラン作成手段104、スレーブ動作
管理手段105、スレーブ制御手段106、スレーブ制御手段
106により制御されるスレーブ107、スレーブの状態を検
出するセンシング手段108、及び前記各手段103,104,10
5,106,108が情報を書き込んだり、読み出したりする記
憶手段109、該記憶手段109内にあつて操作者110の操作
技能に関するデータを格納している操作者技術データ部
111によつて構成されている。
第2図は第1図の実施例をさらに詳しく説明するため
の図である。同図では記憶手段109の内容として、操作
者技能データ部111の他、作業データ部201、環境データ
部202、装置データ部203、プラン部204、現在状態部20
5、制御入力部206、センサ情報部207を有している。第
2図中の各々のブロツクについて以下に説明する。
<現在状態部205> 現在状態部205の内容は第3図に示すように現在実行
中の演算子番号3a、実行の終了を示すフラグ3b、次に実
行する演算子番号3c、現在状態の記述3dり成る。3a,3b,
3cについてはプラン部の説明の際に詳しく述べるので、
ここでは現在状態の記述3dについて説明する。第4図に
示すように、現在状態の記述3dの内容は装置の状態4a及
び作業対象の状態4bに分かれる。
装置の状態4aには、マスク及びスレーブの関節角や手
先の位置、方向、グリツパが物を把んでいるかいないか
などの情報が収納されている。
作業対象の状態4bには、作業対象の相互関係を示すデ
ータ4b1及び位置姿勢を示すデータ4b2が収納されてい
る。各々を具体的に説明するために第5図のような例を
考える。この例では、マニピユレーシヨン作業により、
弁を分解する。すなわちボルト51で固定されたフランジ
52及び弁箱53の内部にある弁体54を取り出す作業をす
る。通常はボルトは18個程度あるが、ここでは簡単のた
めに1個のみと仮定する。第4図に戻つて説明を続け
る。4b1には、フランジと弁箱が固定されており、弁体
が弁箱の中にあり、ボルトがフランジと弁箱を固定して
いる状態が前述されている。4b2には、各パーツの空間
座標上の位置ベクトルxi,xj,xkと各々の姿勢各ベクトル
θijが収納されている。
<作業データ部201> 作業データ部201の内容は、第6図に示すように作業
目標6a、演算子の定義6b、作業対象に関するデータ6cよ
り成る。作業目標6aは同図に示す例のように、弁体が作
業台に置かれており、その位置はxr、姿勢はθといつ
た目標状態を定義する。また、作業対象に関するデータ
としては、フランジやボルトなどの形状に関するデータ
を収納する。
演算子の定義6bは第7図を用いて説明する。演算子は
状態を変化されるための手段のことである。現在状態
(例えば第4図の4b)から目標状態(例えば第6図の6
a)に移行するためには、適切な手順を順に接して状態
を次々と変化させてゆかなければならない。各手段は後
述する理由から幾つかの階層に分けられており、第7図
の例では、作業レベルの演算子「フランジ取外し」につ
いての定義が示されている。レベルについてはプラン作
業手段を説明する際に後述するので、ここでは前提状態
7a、状態変化7bについて説明する。
前提条件7aの内容は、この演算子が使えるための条件
を示す。図の例では、フランジがどこにも固定されてお
らず、弁体の上にあることを条件としている。状態変化
7bの内容は、削除項目と追加項目に分けて記述されてい
る。削除項目はこの演算子を施こした後に以前の状態の
記述から削除される項目を表わし、図の例では、フラン
ジが弁体の上にあるという項目とフランジの位置・姿勢
に関する項目が削除される。追加項目は新たに付け加え
る項目であり、図の例ではフランジが床上にあることと
フランジの新しい位置・姿勢が追加されることを示す。
コスト欄7cはこの演算子を施す際のコスト(後述)の
値、はたは評価する関数を収納する。
<環境データ部202> 環境データ部には、作業対象とスレーブを除く他の機
器の配置や寸法、形状についてのデータを収納する。ス
レーブが動作する時の衝突などをチエツクする際に用い
る。
<操作者技能データ部111> 操作者の技能を表わす項目について、点数または段階
により、その程度が示されている。技能の項目として
は、 (1)手先の移動時間/軌跡精度 (2)手先の位置合わせ時間/精度 (3)手先の軸合わせ時間/精度 (4)反力検出感度 など様々な内容がある。
<装置データ部203> ここには次のようなデータが収納される。
(1)スレーブ107の寸法,形状データ (2)コンピユータによる自動動作の性能,機能 <センシング手段108及びセンサ情報部207> センシング手段108は、スレーブ107の制御をする際に
用いるエンコーダ,ポテンシヨメータ,タコジエネレー
タ,力センサ,コンピユータの自動動作に使用する視覚
センサ、TVモニタ102に情景を映し出すためのTVカメラ
などを含み、センサ情報部207にデータを供給する。
センサ情報部207には、次のような情報が収納され
る。
(1)各種センシング結果のデータ (2)各種センサーの位置や性能,TVカメラの位置や特
性,現在モニタ102に情景を映しているカメラの番号な
ど <制御手段106及び制御入力206> 制御手段106は、スレーブ107の各関節を、位置制御,
速度制御,力制御する。制御の種類や目標値は制御入力
206に収納されている。
<プラン作成手段104及びプラン部204> プラン作成手段104についてはさらに具体的実施例を
後述するので、ここでは概要を述べる。プラン作成手段
104は、現在状態(例えば第4図の4b)から目標状態
(例えば第6図の6a)に移行するために、どのような演
算子(第7図)を順に施せばよいかを判断し、結果をプ
ラン部204に収納する。またプランが収納されたことを
示すために現在状態205の「次に実行する演算子番号欄
(第3図3c)」にプランの先頭番号を収納する。プラン
は、一例を第8図に示すように5つの階層(レベル)に
用けて作る。各々のレベルのプランは第7図のように定
義された演算子を並べたものであり、第8図から第10図
には例が示されている。まず第8図において、最上位レ
ベル(目的レベル8a)のプランは1つの演算子8fのみで
構成される。この演算子は作業全体を総括した概念を表
わす。この演算子を作業レベル8bに具体化すると下図の
ように(ボルト取外し)8g→(フランジ取外し)8h→
(弁体取外し)8iの手順となる。プラン中の番号欄は演
算子を施す順序を示し、上位レベルポインタ欄の番号は
1段階上位レベルのプラン中の、どの番号の演算子を具
体化したものであことを示す。すなわち図中の例では、
作業レベル8b中の3つの演算子はいずれも目的レベル8a
の演子No.1を具体化したものである。以下、レベルが下
がるにつれて演算子は徐々に具体化されてゆき、最下位
の軌跡レベル8eの演算子になつて始めて、人間またはコ
ンピユータにより実行可能なデータとなる。第9図は手
順レベル8c、及び動作レベル8dの例を示すものである。
作業レベル8bで(ボルト取外し)8gであつたものが、手
順レベル8cでは(ボルト緩め)9a、(ボルト除去)9bに
分けられる。(ボルト緩め)9aは専用の工具を使つた作
業である。(ボルト除去)9bに注目してさらに下位レベ
ルを見てみると、動作レベル8dでは、(アプローチ(ap
proach)ボルト)9c、(グリツプ(grip)ボルト)9d、
リワインド(rewind)ボルト)9e、(ムーブ(move)
xd)9fに分解される。これらは各々「ボルトを把む位置
に手先を移動」,「ボルトを把む」,「ボルトを回
す」,「手先を位置xd)に移動」を意味する。このうち
9c,9d,9eをさらに具体化した例を第10に示す。同図は最
下位の軌跡レベル8eを示したものである。まず、(アプ
ローチボルト)9cを具体化すると、(ムーブx1:con
d1),(ムーブx2:cond2),(ブームx3:cond3),(op
−ムーブx4:cond4)となることが示されている。これ
は、手先がボルトの頭を把む位置x4に移動するために、
x1,x2,x3を経由して自動モードで移動し、x3らx4までは
手動操作で動かす(op−ムーブ)ことを意味する。この
ように手動による操作を示す演算子には名称に「op−」
を付けるなどして自動のものと区別する。ここで、演算
子に付帯する「cond1」などの記号は、演算子を実施す
る際の付帯条件を表わし、一例を10gに示すように、別
途まとめて記憶し手先の姿勢や、位置に関する拘束すな
わち手動操作をコンピユータにより介助する、支援動作
などを記述する。この他にもコンプライアンス条件、使
用するセンシング手段など様々な条件があり得る。さて
(op−ムーブ)10dの次には、(グリツプボルト)9dを
具体化した(クローズ(close)−ハンド(hand)10eあ
る。この演算子の付帯条件cond5には、ボルトを把む力
などが記述されている。次の演算子(ローテイート(ro
tate)−ハンド(hand)10fはボルトを10回転して抜く
ことを意味する。付帯条件cond6は、ボルトの頭が抜け
てくるに従つて、コンプライアンス制御によりハンドの
位置が徐々に移動するとともに、手先姿勢が一定を保つ
ように記述されている。
<スレーブ動作管理手段105> プラン部204に収納された演算子は、現在状態205に収
納されている「次に実行する演算子番号」に従つて次々
と実行されてゆく。実行される演算子は全て軌跡レベル
8eのものである。この時、演算子の内容や付帯条件に従
つてスレーブ動作管理手段105がこれを実行する。例え
ば(ムーブx1:cond1)10aを実行する際には、cond1に定
められた条件を満たしながら、手先が位置x1に到達する
ように制御入力206を介してスレーブを制御する。また
センサ情報207の内容を見ながら実行の終了を判定し、
現在状態部205の各々の項目3a,3b,3c,3dを更新する。
<インターフエース手段103> 次に実行する演算子が手動操作、すなわち名称に「op
−」がついているものである時、インターフエース手段
103はモニタ102上への表示や音声出力、マスタ101に発
生する力などを介して操作者110の操作をうながす。イ
ンターフエース手段103は、操作者がマスタに加えた力
や変化を読み取り、制御入力部206に適切な値を書き込
むと同時に、センサ情報部207の内容を読んでマスター
に反力などを発生させ、操作者に力感覚等のフイードバ
ツクを伝える。また現在状態部205の各項目3a,3b,3c,3d
を更新する。
演算子が手動操作のものであつても,スレーブ動作管
理手段105が働くこともある。これは手動操作を支援す
る場合であり、例えば演算子の付帯条件が手先姿勢に拘
束を加える場合などである。このような時には、インタ
ーフエース手段103は制御入力バツフア208にデータを書
き込み、これをスレーブ動作管理手段105が読み、拘束
条件を付加した制御入力を制御入力206に書き込む。こ
の時には現在状態205の更新はインターフエース手段103
のみが行う。
<概略フロー> 以上述べた各ブロツクの動作手順概略を説明する。作
業データ201中の作業目標6aを除く項目と、環境データ2
02、装置データ203、操作者技能データ111はあらかじめ
与えられているものとする。第11図のフローチヤートに
おいて、まず作業目標6a及び現在状態205の初期値を与
える(11a)。現在状態205中の次に実行する演算子番号
欄3cに「目的レベルの1番」を初期値として入れておく
と、これは軌跡レベルの演算子でないので、自動操作も
手動操作も行われない。またこの欄3cに軌跡レベル以外
の演算子が記入されることはプラン作成手段104の動作
をうながす。そこでプラン作成手段104は目的レベルの
プランをさらに具体化し、軌跡レベルのプランを作成
し、プラン部204に収納した後に、最初に実行する軌跡
レベル演算子の番号を現在状態部205の次に実行する演
算子番号欄3cに収納する(11b)。欄3cに軌跡レベルの
データが収納されると、インターフエース手段103また
はスレーブ動作管理手段105が働き、演算尾が実行され
(11c)、さらに現在状態部205を更新した後(11d)、
未実行の演算子がなければ終了する(11e)。ここで未
実行の演算子というのは、軌跡レベルでまだ実行されて
いないものだけでなく、軌跡レベルよりも上位レベルの
ものを含む。次に、未実行の演算子の中から次に実行す
べきものの番号を、次に実行する演算子番号欄3cに入れ
ることによつて、次の演算子が実行される。この時、欄
3cに書き込まれた番号が、軌跡レベルよりも上位レベル
の演算子番号である時には、自動的にプラン作成手段が
起動する(11f)。
<プラン作成手段104の詳細説明> プラン作成手段104の機能については既に概略を説明
したので、ここでは実現方法について詳細に説明する。
前述のように次に実行する演算子番号欄3cに軌跡レベル
よりも高いレベルの演算子番号が記入されると、その演
算子を具体化するためにプラン作成手段104が起動す
る。従つて、104は様々なレベルの演算子を具体化でき
なければならないため、第12図に示すような構造になつ
ている。プラン作成手段104は、さらに階層別のプラン
ナー104a〜104eに分かれており、各々のプラナーが、1
段上のレベルの演算子を自己のレベルの演算子の並び
(プラン)に具体化する。
第8図〜第10図に例を示したように、あるレベルの演
算子は、具体化されてレベルが下がるに従つて多くの演
算子を生む。全てを1度に最下位の軌跡レベルにまで分
解してしまうことも可能であるが、他の方法として、演
算子を具体化する過程で、常に各レベルノ先頭の演算子
だけを具体化する手法がある。この場合、先頭でない演
算子は一担各々のレベル8a〜8eに格納しておき、後に
「次に実行する演算番号」として選ばれ、具体化される
のを待つ。
各々のレベルのプラナーは、基本的には同様の動作を
する。プランの作成は、初期状態から目標とする状態へ
移行するために施す演算子の順序を決めるプロセスであ
る。通常は、初期状態から目標状態へ様々な移行のし方
があり、様々な中間状態を経て移行できる。例えば、あ
る状態Aに程こすことのでき演算子(前提条件部7aが状
態Aで見たされる演算子)が複数個あるとすれば、状態
Aは状態BやC或いはDに移行できる。さらにB,C,Dは
各々他の状態に移行できる。そこで、各々の状態をノー
ドとする移行グラフを描くことができる。通常はグラフ
上で、目標とする状態に至る経路は多数存在するので、
各々のノードにコストを付加し、最小のコストで到達す
るものを選ぶ。このような選択はグラフ探索手法と呼ば
れる一般的な手法で実現することできる。このようにし
て経路を決定すると、施こすべき演算子の並びと、それ
らによつて次々と変化してゆく状態(ノード)の並びが
得られるので、両者を各々、プラン部8a〜8e、ノード部
12a〜12eに収納する。プラン部に収納されたある演算子
αを具体化する際には、演算子αを施す直前のノードP
と直後のノードQを、1段下のプラナーに与える。1段
下のプラナーは、ノードPを初期状態、ノードQを目標
状態として同様にプランを作成する。このようにして次
々と演算子を具体化することができる。
本発明の特徴は、演算子のコストの評価法にある。例
えばノードiに演算子βを施した時ノードjに移行する
と仮定した場合、ノードjのコストは、ノードiのコス
トと演算子βのコストを反映した値となることから、グ
ラフ探索の結果として選ばれるプランは、比較的コスト
の低い演算子の並びである。従つて、演算子のコストを
どのように評価するかによつて、作成されるプランは全
く異なつたものになる。本実施例では、演算子のコスト
欄7cには、多くの場合、コスト評価関数が入つている。
この関数は、作業対象に関するデータ6c、環境データ20
2、装置データ203、現在状態205の他、操作者技能デー
タ111を用いてその場、その時に応じたコスト評価をす
る。特に、名称に「op−」のついた手動操作演算子のコ
ストを評価する場合には、必ず操作者技能データ111を
参考にしてコストを定める。従つて、操作者の性能が高
い場合には、低いコストに評価されプランに組み込まれ
る手動操作演算子であつても、操作者の技能が低いと自
動操作演算子に変えられることになる。
次に軌跡レベル演算子の付帯条件10gについて説明す
る。付帯条件10gは、あらかじめ演算子の定義として与
えられているものもあるが、演算子のコストを評価する
際に、コストが小さくなるように定めることもある。特
に手動操作演算子のコスト評価の際には、操作者の技能
によつて、付帯条件がコストに大きな影響を及ぼす。例
えば、初心者は軸合わせ作業が不得手であるから、視覚
センサー情報から適切なコンプライアンスを発生してや
るという付帯条件を付けることによつて、コストをかな
り小さくすることができる。
<インターフエース手段の詳細> 以下、インターフエース手段の詳細について、第13図
以降を用いて説明する。第13図はインターフエース手段
の構成を示す。インターフエース手段103の各構成部分
について以下説明する。インターフエース制御部1301は
内部にメモリプロセツサ等を持ちインターフエース部10
3全体を統括管理する。インターフエース部103の他の構
成部や記憶手段109とのデータ交換はバス1310を用いて
行う。マスタ制御部1303はマスタ制御入力部1302に入つ
ている制御データを用いてマスタ101を制御する。マス
タ制御入力部1302の制御データはインターフエース制御
部1301が周期的に更新する。操作指示画面発生部1304は
インターフエース制御部1301から与えられる現在作業中
に演算子内容、及び手先の位置データを用いて、TVモニ
タ102に作業内容及びスレーブ手先の目標位置を表示す
る。操作指示画面発生部1304の出力したTVモニタ用CRT
表示データは画面混合部1305により、記憶手段109中の
センサ情報207(第2図参照)に格納されているTVモニ
タ画面情報(TVカメラによりモニタされた対象物とスレ
ーブの手先の画像)にスーパーインポーズされて、TVモ
ニタ102に写し出される。
画面の一例を第14図に示す。TVモニタ102のCRT表示画
面1401には次の情報が示される。
(1)作業対象物とスレーブ手先部の実際の映像 (2)現在の作業項目内容 本図では作業レベル内容表示部1402に「ボルト取外
し」の表示が、手順レベル内容表示部1403には「ボルト
除去」の表示が、動作レベル内容表示部1404には「Appr
oachボルト」の表示がある。
(3)手先目標位置のグラフイツク表示 現在、動作中の軌跡レベル演算子の目標位置が目標位
置表示1406に破線でグラフイツク表示する。インターフ
エースの動作モードは大別すると後述するように自動操
作と、手動操作にわかれるが、自動操作の時には目標位
置表示は白色で、手動操作の時には赤で表示され、区別
し易くなつている。
(4)付帯条件表示 手動操作に付帯条件が付く場合には、目標位置表示の
傍に付帯条件表示1406が表示される。
第13図に戻つて説明を続ける。音声出力部1306はイン
ターフエース制御部1301の指示により、新しい軌跡レベ
ル演算子の実行開始、及び終了時にスピーカ1311からブ
ザー音を出力する。もちろん音声合成等による声による
表示でも良い。拘束解除スイツチ1312は操作者が、何ら
かの原因により手動操作の付帯条件(例えば第14図の14
06)を解除したいときに使用する。本スイツチを押す
と、拘束解除スイツチインターフエース1307を介してイ
ンターフエース制御部1301にインタラプトがかかり、付
帯条件が解除される。付帯条件の解除方法については後
述する。
操作検出部1308は操作者がマスタを操作した時のマス
タの各関節の各度等を取込むセンサであり、ポテンシヨ
メータ,エンコーダ等を使用している。操作出力データ
部1309は、操作検出部1308からのデータを格納してお
り、インターフエース制御部1301がバス1310を介してデ
ータを取込むことができるようになつている。
以下、インターフエース手段の動作について、第15図
〜第19図のフローチヤートを用いて説明する。第15図は
インターフエース制御部1301の実行する制御の全体フロ
ーチヤートである。制御は記憶手段109中の現在状態部2
05をモニタすることにより行われる。制御手順1501〜15
19中に現われる記号は第3図の現在状態部205の内容に
対応している。現在実行中の演算子番号(第3図3a)を
OPN1、実行の終了フラグ(第3図3b)をFLG1、次に実行
する演算子番号(第3図3c)をOPN2、現在状態の記述
(第3図3d)をSTATE、スレーブ動作管理解除フラグ
(第3図3e)をFLG2と記述している。以下の説明ではこ
れらの記号を用いる。
まず第15図を説明する。電源オン状態となると、FLG1
が“1"になつたことを確認してOPN2を読み込む。OPN2が
軌跡レベルの演算子であれば、インターフエース手段は
動作を開始する。インターフエース手段103の動作モー
ドは大きく分けて、次の3つに分かれる。
(1)自動操作モード(制御手順1511) (2)手動操作モード(制御手順1513) (3)拘束付手動操作モード(制御手順1508) 自動操作モードはOPN2中の演算子にop−が付いていな
いことから認識できる。例えば、第10図の10aのような
演算子の場合である。手動操作モードはop−付いた演算
子がOPN2中にあつた場合で、且つ付帯条件cond1(第10
図参照)が付いていない場合である。拘束付手動操作モ
ードはop−付いた演算子がOPN2中にあつた場合で且つ付
帯条件cond1がついている場合である。
自動操作モードではスレーブ107はスレーブ動作管理
手段105により制御され、1つの演算子が終了するとス
レーブ動作手段105がFLG1を“1"とする。インターフエ
ース制御部1301は、常時FLG1を監視しており、FLG1=1
となると制御手順1511を終了し、次の演算子OPN2を読
む。
手動操作モード及び拘束手動操作モードではインター
フエース手段103がスレーブ107を主に制御する。この場
合には1つの演算子(OPN1)の処理が終了すると、イン
ターフエース制御部1301が第7図の例のような演算子の
定義に従い、現在状態の記述STATEを更新し(1510)、
次に実行する演算子をサーチする(1516)。演算子のサ
ーチは同レベル(例えば軌跡レベル)内では番号順で良
い(第9図参照)が、同レベルの次の演算子が無い場合
には、上位レベルポインタ欄を参照して上位レベルに逆
昇つてサーチする。未実行の演算子が全く無くなつた場
合には作業が全て完了したことになる。この場合にはOP
N2=0とする(1519)。その後で終了フラグFLG1を“1"
として現在状態部205の管理を明渡す。
第16図には自動動作モードの制御手順1511の詳細フロ
ーチヤートを示した。自動動作の制御ルーチンは3つの
部分、(1)開始処理、(2)動作中、(3)終了処理
に分れる。
開始処理1604では音声出力部1306を用いてスタート音
をスピーカ1311から出力し(1610)、操作者に注意をう
ながした後、動作内容を文字でTVモニタ102上に表示す
る(1611)。表示内容は第14図に例を示したように、実
施中の作業の作業レベル,手順レベル,動作レベルの内
容であり、現在状態205、及びプラン204を参照すること
によりわかる。また、OPN1の軌跡レベル演算子の内容
と、センサ情報207に含まれているカメラの位置情報を
用いて、TVモニタ画面上におけるスレーブの手先の目標
位置を計算しTVモニタ画面上に表示する(1612,161
3)。これらの表示は操作指示画面発生部で発生し、画
面混合部1305でカメラからの映像と混合されTVモニタ10
2に表示される。
終了処理1603では、演算子の終了表示をした後、スレ
ーブの目標位置をTV画面から消去する。消去する直前に
はスレーブの手先の映像と目標位置は合致している。
動作中1605,1606ではセンサ情報部207のデータからス
レーブからの反力を計算して、計算データをマスタ制御
入力部1302へ出力する。これによりマスタ制御部はマス
タを制御し、操作者へスレーブの手先の感覚等を伝える
ことができる。
第17図は手動操作モードの制御手順1513の詳細フロー
チヤートを示す。開始処理1710は第16図の1604と同じ動
作、終了処理1709は第16図の1603と同じ動作である。但
し、開始処理1710において、スレーブの目標位置表示
(グラフイツク表示)の色は、前述のように自動の場合
と異なり、操作者の注意を換起するようになつている。
手動操作モードではマスタの操作に応じて、スレーブ
を制御する。(1702,1703)だけでなく、スレーブから
の反力を計算し、マスタを動かし(1704,1705)操作者
の手先の感覚を伝える。さらに、センサ情報207により
スレーブの位置を計算し(1706)スレーブが目標位置に
到達したか否かの判断も行う。
第18図は拘束付手動操作モードの制御手順1508の詳細
フローチヤートである。開始処理1809は1710と、終了処
理1808は1709と同じ処理である。但し、開始処理におい
て拘束付手動操作では、付帯条件表示1406(第14図の例
参照)を表示する必要がある。拘束付手動操作では、例
えば「手先水平保持」等の拘束動作の制御をスレーブ動
作管理手段105が分担してスレーブを制御する。従つ
て、手動操作では操作出力データ1309からスレーブの制
御入力を計算し、制御入力部206に出力するが、本動作
では操作出力データ1309を処理せず、直接、制御入力バ
ツフア208(記憶手段109中)に出力する(1803)。この
場合はスレーブ管理手段105が制御入力バツフア208中の
データを用いて、付帯条件下で制御入力部206用データ
を計算する。従つてスレーブからの反力の計算1804では
操作者が動かすマスタと付帯条件下で動くスレーブ間の
位置偏差が出ることが予想されるが、この偏差を小さく
す方向にマスタを動作させるような弱い力を発生させ
る。これにより、操作者はスムーズに作業を遂行するこ
とができる。
最後に付帯条件を解除して手動操作モードで動作させ
る場合の動作について述べる。拘束解除スイツチ1312を
操作者がオン/オフするとインタラプトが発生すること
は前に述べた。第19図にインターフエース制御部1301の
インタラプトルーチンのフローチヤート(制御手順1901
〜1903)を示す。FLG2に“1"を立てる(1902)ことによ
り、スレーブ動作管理手段105は付帯条件下の制御を中
止して良いことを認識できる。同時に第18図において、
拘束付手動操作が制御手順1802にて手動操作に切換えら
れる。
<スレーブ動作管理手段105の詳細説明> 次に、第1図及び第2図に示すスレーブ動作管理手段
105の詳細な実施例を第20図により説明する。
スレーブ管理手段105では、第3図に示す実行の終了
フラグ(FLG1)を絶えず監視し(処理ブロツク105a)、
軌跡レベルの実行終了フラグが“1"になるまで待状態を
続ける。軌跡レベルの実行が終了(FLG=1)したら、
次に実行する演算子番号(OPN2)を読込み(処理ブロツ
ク105b)、軌跡レベルの演算子からどうかチエツクする
(処理ブロツク105a)。軌跡レベルの演算子でれば、自
動動作か手動動作かを判別し(処理ブロツク105d)、自
動操作モードであれば実行の終了フラグを“0"とすると
同時に次に実行する演算子番号を現在実行中の演算子番
号に置き替える(処理ブロツク105e,105f)。自動操作
(処理ブロツク105g)では、第10図の(8eの例)の中の
番号欄35〜37で示すような軌跡レベルでの手先の自動操
作を実現するもので、制約条件の基で3次元的な位置ベ
クトルx1〜x3を目標値として第2図に示す制御入力部20
6に出力する。自動操作での操作終了判定(処理ブロツ
ク105b)は、第2図に示すセンシング手段108で得られ
るセンサ情報207を基に現在の手先の位置が目標値とし
て与えた3次元的な位置ベクトルに一致したかどうかで
決定する。
自動操作が終了したら、インターフエース手段103で
の詳細説明で述べているのと同様に、第3図の現在状態
の記述(STATE)を変更する(処理ブロツク105i)。さ
らに、次に実行すべき演算子番号をサーチ(処理ブロツ
ク105j)し、次に実行すべき演算子番号があるかどうか
をチエツクする(処理ブロツク105k)。次に実行すべき
演算子番号があればOPN2にその番号を格納し実行すべき
演算子番号がなければ、OPN2=0としたうえ実行終了フ
ラグFLGN1を“1"にして(処理ブロツク105l,105m,105
n)次の処理の実行に移行する。
一方、処理ブロツク105dにおいて、演算子が手動操作
であつた場合、その操作が手先の向きを一定にする、あ
るいは手先の速度を一定にする等の付帯条件付きのもの
であるかどうかを判定し(処理ブロツク105p)、付帯条
件付動作であれば付帯条件付動作解除の指令がインター
フエース手段より出されるまで付帯条件付動作を継続す
る(処理ブロツク105q,105r,105s)。付帯条件付動作解
除フラグFLGN2を設けたのは、付帯条件付手動操作を実
行しようとしたが、マスタ操作者が何らかの原因で付帯
条件付操作を外したい場合に柔軟に対処できるようにす
るためのものである。
以上述べたスレーブ動作管理手段の内最も特徴的なと
ころは、第20図における自動操作の場合の付帯条件付き
の場合の動作である。第21図は第20図の処理ブロツク10
5p〜105sをさらに詳細に実施例を示したものである。第
21図において、まず付帯条件手動操作であるかどうかを
判定(処理ブロツク311)し、付帯条件付手動操作であ
る場合には、第2図のインターフエース手段103から制
御入力バツフア308に書込まれた現在状態でのマスタの
各関節角度データθjm、センサ情報207からスレーブの
各関節角度データθjsをそれぞれ読込む(処理ブロツク
312及び313)。次に、与えられた付帯条件から該付帯条
件を満足するスレーブの各関節角度間の関係に変換(処
理ブロツク314)する。第20図でも述べたように、マス
タ操作者から手動操作時の制約条件を解除する指示が発
生される場合もあり、FLG2が“1"か“”かで判定する
(処理ブロツク315)。制約条件解除の指示がない場合
(FLG=0)、マスタ及びスレーブの現在状態の各関節
の角度データθjmjsから付帯条件を満足するスレー
ブの各関節角度θを計算する(処理ブロツク31
6)。計算した結果のθは第2図のスレーブ制御
手段106の制御目標値として書込む(処理ブロツク31
7)。第20図及び第21図に示した各種処理は、制御の周
期ごとに実行され、マスタ・スレーブ動作及び動作操作
が達成される。
スレーブ動作管理手段では、上述の付帯条件付スレー
ブ動作の他に次に述べるセンサ情報のフイードバツクに
基づくスレーブ動作支援機能を持たせることもできる。
第22図及び第23図は画像情報に基づくスレーブの手先の
誘導の場合を実施例として示したものである。ここで
は、バルブのハンドル操作を例とし、スレーブマニピユ
レータの手先350にテレビカメラ340を設置して、テレビ
カメラ340で撮影した画像データ上の操作対象(バルブ
ハンドル)を把持する過程での支援動作について説明す
る。予めバルブハンドルの大きさが既知であり、完全な
円形であるとすると、テレビカメラからバルブハンドル
までの距離(第23図(a)のLz)及び方向(第23図
(b)のLx,Ly)は、画像上のバルブハンドルの画像デ
ータからだ円の長軸,短軸及び大きさを抽出することに
より算出することができる。よつて、マスタに対して操
作対象に接近する方向に力を発生し、操作者に操作方向
をうながすことにより、短時間で操作対象にアクセスす
ることが可能な動作を実現できる。
<操作者技能を自動的に評価する実施例> これまでの説明では操作者の技能データ111は、あら
かじめ与えられているものであつたが、ここでは、第24
図の実施例に示すように、操作者技能評価手段112によ
つて自動的に作成、更新できる方法について述べる。
操作者技能評価手段112の構成を第25図を用いて説明
する。操作者技能評価手段112は、評価手段220、タイマ
221とから構成されており、タイマ221は、評価手段220
のトリガON信号を受けて、時間(作業時間や位置決め時
間)tを計測し、評価手段220に伝達する。評価手段220
は、プラン204、現在状態205、センサ情報207、操作者
技能データ111から、データを受け、計算結果を操作者
技能データ111に返す。
評価手段220は、センサ情報207から、ハンドルの位置
x,速度,力fの現在値を読み込む。ここに、x,,fは
次式で与えられる。
ここに、 xx,xy,xz:マニピユレータハンドの先端位置のx,y,z成分 α,β,γ:ハンドの姿勢の方向余弦x ,y,z:マニピユレータハンドの先端速度のx,y,z
成分 ,,:ハンドの姿勢の方向余弦の角速度 fx,fy,fz:ハンドに加わる力のx,y,z Tx,Ty,Tz:ハンドに加わるのx,y,z軸まわりのモーメント 評価手段220は現在状態205から、第3図で示される現
在実行中の演算子番号OPN13a、実行の終了フラグFLG1 3
b、次に実行する演算子番号OPN2 3cを読む。
評価手段220は現在実行中の演算番号OPN1 3aを用い
て、プラン204からスタクデータ(xr,fr,B0,C0,T0,A0,V
0)を読み込む。
このタスクデータについて詳述する。
評価手段220は、プラン204から、作業標準実行時間
T0,搬送距離A0,標準搬送速度V0のデータを読み込む。こ
こに、作業標準実行時間T0は、軌跡レベル8eの一作業
(以下、これをタスクと呼ぶ)の実行時間である。A
0は、タスク開始直前のマニピユレータハンド位置x0
そのタスク位置の目標値xrの距離である。
標準搬送速度V0は、指定の軌跡許容値C0を維持して、
ハンドを目標値xrに移動させるときのハンドの標準速度
である。さらに、評価手段220は、プラン204から、位置
の目標値xr,力の目標値fr,位置決め許容値B0,軌跡追従
許容値C0を読み込む。
xr,frは(1)式で与えられるx,frと同じ次元(=
6)をもつ。
xrは軌跡レベル8eのxiと同じものである。frはcond1
で規定される(例えば、ある作業対象では、10N以上の
力を加えるといわれる場合など)。位置決め許容値B
0は、xと同一の次元をもち、目標値xrに意気決めした
ときの許容値を意味し、軌跡レベル8eのcod1で指定され
る。軌跡追従許容値C0は、cond1の中で軌跡条件が指定
されたとき、軌跡追従誤差の許容値を表わし、condi
指定される。
以上の操作者技能評価手段205と外部の手段との入出
力関係を第26図,第27図に示す。
第29図は、評価手段の動作原理をフローチヤートで示
したものである。以下、第29図を用いて説明する。操作
者は自分の名前をインターフエース手段103から、キー
ボード等により入力する(1a)。
評価手段220は、操作者の名前が技能データ111に登録
済が否かをチエツクする(1b)。登録済の場合は、以下
の処理(1c〜1f)をスキツプする。
プラン204にトレーニング作業を要求する。トレーニ
ング作業とは、適当な目標値xrと許容値B0をインターフ
エース手段103を介して、テレビモニタ102に表示し、操
作者110にマスタマニピユレータ101によつて、スレーブ
マニピユレータ107を目標値xrに指定の許容値B0内に位
置決めさせる作業をいう。
評価手段220は、スタート地点から目標点までの距離A
0を計算し、スタート後、スレーブマニピユレータ107が
目標値xrに許容値B内に位置決めするのに要する時間t
を計測する。
A0,B0は、log2|A|,log2|B|で3〜4の範囲をカバーす
るように数点のデータをあらかじめ用意しておき、これ
らの数点のデータに対する位置決め時間tを計測する。
これらの結果から位置決め時の難易度を示すパラメータ log22A/B ここに、A=|A|,B=|B| に対する位置決め時間tの回帰直線 t=Ra+RP・log22A/B から、基本評価パラメータRa,RPを決定する(1e)。こ
の評価パラメータR,RPを技能データ111に操作者の名前
とともに登録する(1f)。
次に、評価手段220は、現在状態205からデータ(OPN
1,FLG1,OPN2)を読む(1g−1)。
次に評価手段220は、タスクが実行開始されているか
否かを、 FLG1=0のとき、タスク待ち状態 FLG1=1のとき、タスク実行状態 で判定する。FLG1=0のとき、タスク待ち状態となつ
て、FLG1=1となるまで待機状態が続く。FLG1=1のと
き、次のステツプに進む(1g−2)。
次に評価手段220はタイマ221にトリガON信号を与え、
タイマの計測開始を指令する(1h)。
次に、評価手段220は現在実行中のタスク番号OPN1に
基づいて、プラン部204からタクスデータ(xr,fr,B0,
C0,T0,A0,V0)を読む。
次に評価手段220は操作者の技能データ(Na,Rfa,RP,R
f,RR,RT,Ra…)を読み込む(1j)。
次に、評価手段220は、センサ情報207からデータx,
,fを読み込む(1k)。
次に評価手段220は評価2次パラメータrfi,rRi,rti
次式に従い計算する。
rfi=|fr−fi|/fr rRi=|xr−xi| rti=|i|/V0 ここに、|x|はベクトルxのノルムを表わす(1l)。
次に操作手段220はタイマ221から時間tを読みこむ
(1m)。次に、操作手段220はタイム・アウトか否かを
tとT0を比較することで判定する(1n)。
t≧nT0の場合、タイムアウトと判定し、疲労パラメ
ータRfa=nとし(1θ)、現在状態205のデータOPN1,F
LG1,OPN2を読み込み、1p〜1tまでの処理をスキツプす
る。タイムアウトの状態は操作者が疲労のため必要以上
の作業時間を要した場合で、nは作業内容に応じて適当
な値をとる。通常、nは2または3とする。
t<nT0の場合、評価手段220は、現在状態205のデー
タOPN1,FLG1,OPN2を読み込む(1p)。
次に、評価手段220はタスク終了か否かをFLG1により
判定する。FLG1=1の場合タスク継続中と判定し、(1
k)の処理へと戻り、LFG1=0の場合、タスク終了と判
定し、次の処理1rへ進む(1q)。
次に、評価手段220は評価パラメータの暫定値Rfa,R
P′,Rf′,RR′,Rt′を次式に基づいて計算する(1r)。
次に、評価手段220は|Ri−Ri′|に有意差があるか否
かを判定し、有意差がある場合1tの処理を実行し、有意
差がない場合1tの処理をスキツプする(1S)。このとき
有意差の判定はεとの大小で判定し、|Ri−Ri′|<
εの場合有意差なしとする。εの値は、あらかじめ
評価手段220に与えられており、一定値である。
1tの処理では有意差のあつた技能データを更新し、更
新した技能データを示す技能更新フラグを1にして、他
の手段が更新された技能データをすぐにわかるようにす
る(1t)。
なお、技能更新フラグは第30図の構成とする。
次に、全タスク完了か否かをOPN2,3cにより判定し、
全タスク完了の場合(OPN2=0)評価手段220は全ての
動作を完了する。ダスクが未完了の場合(OPN2≠0 1gの
処理へ戻る。
以上の評価パラメータの計算式は第28図にまとめて示
す。
なお、計算機の高性能化・高速化が進むと共に、セン
シング技術や画像処理技術が進歩すると、自動操作の割
合が多くなることが予想される。この場合には操作者が
マスタを操作する時間が少なくなり、余裕が生じる。そ
こで、複数のスレーブを1人の操作者で操作することも
可能になる。第31図はこの場合の実施例を示す図であ
る。図に示すように、2台のスレーブは1台のマスタを
使用して1人の操作者により操作される。モニタ102の
情報は手動操作を必要とするスレーブの情報に切換えら
れ、操作者110に対応するスレーブの操作をうながす。
操作者はマスタ101を操作することにより手動操作を必
要とするスレーブを操作することができる。この場合、
記憶手段109は各々のスレーブに対応して多層構造にな
つている。本方式はスレーブの台数が3台以上になつて
も同様に適用できる。
〔発明の効果〕
以上述べたように本発明によれば、どのような技能の
人間が操作をしても、操作者の技能の程度に応じて自動
操作と手動操作を適切に繰り混ぜた手順で作業を遂行で
き、極めて効率良く作業を実行することができるという
効果がある。
【図面の簡単な説明】
第1図〜第23図は本発明の一実施例を説明する図で、第
1図及び第2図は本発明の全体構成を示すブロツク線
図、第3図は第2図に示す現在状態部の詳細を示す図、
第4図は第3図の一部を更に詳細に説明する図、第5図
は説明のための1例としての状況を説明する斜視図、第
6図及び第7図は第2図の作業データ部を詳細に示す
図、第8図〜第10図は第2図のプラン部を詳細に示す
図、第11図は本実施例の動作概略を示す流れ図、第12図
はプラン作成手段のブロツク線図、第13図及び第14図は
インターフエース手段のブロツク線図と動作例を示す
図、第15図〜第19図はインターフエース手段における処
理の流れ図、第20図及び第21図はスレーブ動作管理手段
の流れ図、第22図及び第23図はスレーブ動作管理手段に
よる動作例を示す図、第24図は操作者技術評価手段を有
する本発明の他の実施例のブロツク線図、第25図は第24
図に示す操作者技能評価手段のブロツク線図、第26図〜
第28図はパラメータの説明図、第29図は操作者技能評価
手段の動作原理を説明する流れ図、第30図はパラメータ
の説明図、第31図は本発明の更に他の実施例を示すブロ
ツク線図である。 101……マスタ、103……インターフエース手段、104…
…プラン作成手段、105……スレーブ動作管理手段、107
……スレーブ、112……操作者技能評価手段。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 上村 博 茨城県日立市森山町1168番地 株式会社日 立製作所エネルギー研究所内 (72)発明者 富沢 文雄 茨城県日立市森山町1168番地 株式会社日 立製作所エネルギー研究所内 (72)発明者 杉山 栄 茨城県日立市森山町1168番地 株式会社日 立製作所エネルギー研究所内 (72)発明者 佐々木 正祥 茨城県日立市内幸町3丁目1番1号 株式 会社日立製作所日立工場内 (56)参考文献 特開 昭60−151716(JP,A) 実開 昭59−160181(JP,U)

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】マスタ及びスレーブを用いた遠隔マニピユ
    レーシヨンにおいて、操作者の技能の程度を示すデータ
    及び与えられた作業目標から手動操作部分と自動操作部
    分を繰り混ぜた手順プランを作成し、この手順プランに
    沿つて、自動操作部分は計算機による運動管理によつて
    自動的に実行し、手動操作部分は操作者による手動操作
    により実行することを特徴とする遠隔マニピユレーシヨ
    ン方法。
  2. 【請求項2】操作中に操作者の技能の程度を示すデータ
    を更新し、操作者の技能の程度を逐次評価することを特
    徴とする特許請求の範囲第1項記載の遠隔マニピユレー
    シヨン方法。
  3. 【請求項3】操作者の技能データを更新した際に、手順
    プランも逐次更新することを特徴とする特許請求の範囲
    第2項記載の遠隔マニピユレーシヨン方法。
  4. 【請求項4】マスタ及びスレーブを備えた遠隔マニピユ
    レーシヨン装置において、操作者の技能データ及び与え
    られた作業目標から手動操作部分と自動操作部分を織り
    混ぜた手順プランを作成するプラン作成手段、自動操作
    部分の実行及び手動操作部分の実行時に支援動作をする
    スレーブ動作管理手段、及び手動操作部分の実行時に実
    施すべき操作の内容を人間に指示し、操作をうながすイ
    ンターフエース手段を備えたことを特徴とする遠隔マニ
    ピユレーシヨン装置。
  5. 【請求項5】操作者の技能データを記憶する手段を備え
    たことを特徴とする特許請求の範囲第4項記載の遠隔マ
    ニピユレーシヨン装置。
  6. 【請求項6】操作者の技能データから操作者の技能の程
    度を評価する手段を備え、操作中に操作者の技能データ
    を更新することを特徴とする特許請求の範囲第4項また
    は第5項記載の遠隔マニピユレーシヨン装置。
  7. 【請求項7】インターフエース手段は、テレビモニタの
    画面上に、作業対象物とスレーブ手先部の実際の映像、
    及び現在の作業項目内容を表示することを特徴とする特
    許請求の範囲第4項に記載の遠隔マニピユレーシヨン装
    置。
  8. 【請求項8】インターフエース手段はテレビモニタの画
    面上に更に、手先目標位置のグラフィツク表示をすると
    共に、付帯条件の表示も行うことを特徴とする特許請求
    の範囲第7項に記載の遠隔マニピユレーシヨン装置。
JP61039232A 1986-02-26 1986-02-26 遠隔マニピユレ−シヨン方法及び装置 Expired - Fee Related JPH085018B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP61039232A JPH085018B2 (ja) 1986-02-26 1986-02-26 遠隔マニピユレ−シヨン方法及び装置
EP87102609A EP0235730B1 (en) 1986-02-26 1987-02-24 Remote manipulation method and system
DE8787102609T DE3762557D1 (de) 1986-02-26 1987-02-24 Fernsteuerungsverfahren und anlage fuer handhabunsgeraet.
US07/019,601 US4837734A (en) 1986-02-26 1987-02-26 Method and apparatus for master-slave manipulation supplemented by automatic control based on level of operator skill

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61039232A JPH085018B2 (ja) 1986-02-26 1986-02-26 遠隔マニピユレ−シヨン方法及び装置

Publications (2)

Publication Number Publication Date
JPS62199376A JPS62199376A (ja) 1987-09-03
JPH085018B2 true JPH085018B2 (ja) 1996-01-24

Family

ID=12547380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61039232A Expired - Fee Related JPH085018B2 (ja) 1986-02-26 1986-02-26 遠隔マニピユレ−シヨン方法及び装置

Country Status (4)

Country Link
US (1) US4837734A (ja)
EP (1) EP0235730B1 (ja)
JP (1) JPH085018B2 (ja)
DE (1) DE3762557D1 (ja)

Families Citing this family (163)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5029067A (en) * 1987-01-30 1991-07-02 Kabushiki Kaisha Komatsu Seisakusho Operation control device
EP0323681B1 (en) * 1988-01-05 1993-11-03 Spar Aerospace Limited Telerobotic tracker
US5038089A (en) * 1988-03-23 1991-08-06 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Synchronized computational architecture for generalized bilateral control of robot arms
JP2512099B2 (ja) * 1988-08-24 1996-07-03 松下電器産業株式会社 ロボットの動作教示方法および制御装置
US5103395A (en) * 1988-10-07 1992-04-07 Spako David W System for remote positioning of a radioactive source into a patient including means for protection against improper patient exposure to radiation
US5019761A (en) * 1989-02-21 1991-05-28 Kraft Brett W Force feedback control for backhoe
EP0427358B1 (en) * 1989-11-08 1996-03-27 George S. Allen Mechanical arm for and interactive image-guided surgical system
US5631861A (en) 1990-02-02 1997-05-20 Virtual Technologies, Inc. Force feedback and texture simulating interface device
JP2796160B2 (ja) * 1990-02-21 1998-09-10 株式会社日立製作所 産業用ロボットの教示装置
US5086400A (en) * 1990-05-11 1992-02-04 The United States Of America As Represented The The Administrator Of The National Aeronautics And Space Administration Bilevel shared control for teleoperators
JPH0820903B2 (ja) * 1990-11-09 1996-03-04 株式会社ユーシン精機 サーボモータ制御装置
US5117992A (en) * 1991-01-28 1992-06-02 Virginia International Terminals, Inc. System for learning control commands to robotically move a load, especially suitable for use in cranes to reduce load sway
JP3065702B2 (ja) * 1991-04-23 2000-07-17 オリンパス光学工業株式会社 内視鏡システム
US5231693A (en) * 1991-05-09 1993-07-27 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Telerobot control system
US5266875A (en) * 1991-05-23 1993-11-30 Massachusetts Institute Of Technology Telerobotic system
US5889670A (en) 1991-10-24 1999-03-30 Immersion Corporation Method and apparatus for tactilely responsive user interface
KR950003286B1 (ko) * 1992-01-06 1995-04-07 삼성전자 주식회사 리모트 송수신 장치
US6788999B2 (en) 1992-01-21 2004-09-07 Sri International, Inc. Surgical system
US6963792B1 (en) * 1992-01-21 2005-11-08 Sri International Surgical method
WO1993013916A1 (en) * 1992-01-21 1993-07-22 Sri International Teleoperator system and method with telepresence
US6731988B1 (en) 1992-01-21 2004-05-04 Sri International System and method for remote endoscopic surgery
DE59309141D1 (de) * 1992-08-01 1998-12-24 Siemens Ag Verfahren und leittechnisches system zum steuern, überwachen und regeln insbesondere von komplexen industriellen prozessen, wie z.b. in einem kernkraftwerk
US5657429A (en) 1992-08-10 1997-08-12 Computer Motion, Inc. Automated endoscope system optimal positioning
US5524180A (en) * 1992-08-10 1996-06-04 Computer Motion, Inc. Automated endoscope system for optimal positioning
US7074179B2 (en) 1992-08-10 2006-07-11 Intuitive Surgical Inc Method and apparatus for performing minimally invasive cardiac procedures
US5762458A (en) * 1996-02-20 1998-06-09 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
US5331413A (en) * 1992-09-28 1994-07-19 The United States Of America As Represented By The United States National Aeronautics And Space Administration Adjustable control station with movable monitors and cameras for viewing systems in robotics and teleoperations
US5389865A (en) * 1992-12-02 1995-02-14 Cybernet Systems Corporation Method and system for providing a tactile virtual reality and manipulator defining an interface device therefor
US5629594A (en) * 1992-12-02 1997-05-13 Cybernet Systems Corporation Force feedback system
US6801008B1 (en) * 1992-12-02 2004-10-05 Immersion Corporation Force feedback system and actuator power management
US7345672B2 (en) * 1992-12-02 2008-03-18 Immersion Corporation Force feedback system and actuator power management
JP3306781B2 (ja) * 1992-12-31 2002-07-24 株式会社ダイヘン 産業用ロボットの手動操作による教示制御装置および教示方法
US5499320A (en) * 1993-03-24 1996-03-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Extended task space control for robotic manipulators
EP0699053B1 (en) * 1993-05-14 1999-03-17 Sri International Surgical apparatus
US5466213A (en) * 1993-07-06 1995-11-14 Massachusetts Institute Of Technology Interactive robotic therapist
US5734373A (en) 1993-07-16 1998-03-31 Immersion Human Interface Corporation Method and apparatus for controlling force feedback interface systems utilizing a host computer
US5625576A (en) * 1993-10-01 1997-04-29 Massachusetts Institute Of Technology Force reflecting haptic interface
US5876325A (en) * 1993-11-02 1999-03-02 Olympus Optical Co., Ltd. Surgical manipulation system
US5473235A (en) * 1993-12-21 1995-12-05 Honeywell Inc. Moment cell counterbalance for active hand controller
KR100376638B1 (ko) * 1994-03-23 2003-07-18 가부시키가이샤 야스가와덴끼 작업기계의제어장치
US6646541B1 (en) 1996-06-24 2003-11-11 Computer Motion, Inc. General purpose distributed operating room control system
US7053752B2 (en) 1996-08-06 2006-05-30 Intuitive Surgical General purpose distributed operating room control system
US6463361B1 (en) 1994-09-22 2002-10-08 Computer Motion, Inc. Speech interface for an automated endoscopic system
US5814038A (en) 1995-06-07 1998-09-29 Sri International Surgical manipulator for a telerobotic system
US5649956A (en) 1995-06-07 1997-07-22 Sri International System and method for releasably holding a surgical instrument
US6714841B1 (en) 1995-09-15 2004-03-30 Computer Motion, Inc. Head cursor control interface for an automated endoscope system for optimal positioning
US5624398A (en) * 1996-02-08 1997-04-29 Symbiosis Corporation Endoscopic robotic surgical tools and methods
US6063095A (en) * 1996-02-20 2000-05-16 Computer Motion, Inc. Method and apparatus for performing minimally invasive surgical procedures
US6436107B1 (en) 1996-02-20 2002-08-20 Computer Motion, Inc. Method and apparatus for performing minimally invasive surgical procedures
US5855583A (en) * 1996-02-20 1999-01-05 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
US7225404B1 (en) * 1996-04-04 2007-05-29 Massachusetts Institute Of Technology Method and apparatus for determining forces to be applied to a user through a haptic interface
US6111577A (en) 1996-04-04 2000-08-29 Massachusetts Institute Of Technology Method and apparatus for determining forces to be applied to a user through a haptic interface
US6243619B1 (en) * 1996-05-10 2001-06-05 Amada Company, Ltd. Control method and apparatus for plate material processing machine
WO1997046926A2 (en) * 1996-06-07 1997-12-11 Amada Company, Limited Control method and apparatus for plate material processing machine
US6496099B2 (en) 1996-06-24 2002-12-17 Computer Motion, Inc. General purpose distributed operating room control system
US6911916B1 (en) 1996-06-24 2005-06-28 The Cleveland Clinic Foundation Method and apparatus for accessing medical data over a network
US6084587A (en) 1996-08-02 2000-07-04 Sensable Technologies, Inc. Method and apparatus for generating and interfacing with a haptic virtual reality environment
US6024576A (en) * 1996-09-06 2000-02-15 Immersion Corporation Hemispherical, high bandwidth mechanical interface for computer systems
US6132441A (en) 1996-11-22 2000-10-17 Computer Motion, Inc. Rigidly-linked articulating wrist with decoupled motion transmission
JP3628826B2 (ja) * 1996-12-24 2005-03-16 本田技研工業株式会社 脚式移動ロボットの遠隔制御システム
US20040236352A1 (en) * 1997-09-22 2004-11-25 Yulun Wang Method and apparatus for performing minimally invasive cardiac procedures
US6281651B1 (en) 1997-11-03 2001-08-28 Immersion Corporation Haptic pointing devices
US6252583B1 (en) 1997-11-14 2001-06-26 Immersion Corporation Memory and force output management for a force feedback system
US6191796B1 (en) 1998-01-21 2001-02-20 Sensable Technologies, Inc. Method and apparatus for generating and interfacing with rigid and deformable surfaces in a haptic virtual reality environment
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6184868B1 (en) 1998-09-17 2001-02-06 Immersion Corp. Haptic feedback control devices
US6417638B1 (en) 1998-07-17 2002-07-09 Sensable Technologies, Inc. Force reflecting haptic interface
US6421048B1 (en) 1998-07-17 2002-07-16 Sensable Technologies, Inc. Systems and methods for interacting with virtual objects in a haptic virtual reality environment
US6552722B1 (en) 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
US6985133B1 (en) 1998-07-17 2006-01-10 Sensable Technologies, Inc. Force reflecting haptic interface
US6951535B2 (en) * 2002-01-16 2005-10-04 Intuitive Surgical, Inc. Tele-medicine system that transmits an entire state of a subsystem
US6398726B1 (en) 1998-11-20 2002-06-04 Intuitive Surgical, Inc. Stabilizer for robotic beating-heart surgery
US8527094B2 (en) 1998-11-20 2013-09-03 Intuitive Surgical Operations, Inc. Multi-user medical robotic system for collaboration or training in minimally invasive surgical procedures
US6852107B2 (en) 2002-01-16 2005-02-08 Computer Motion, Inc. Minimally invasive surgical training using robotics and tele-collaboration
US6659939B2 (en) 1998-11-20 2003-12-09 Intuitive Surgical, Inc. Cooperative minimally invasive telesurgical system
US6493608B1 (en) * 1999-04-07 2002-12-10 Intuitive Surgical, Inc. Aspects of a control system of a minimally invasive surgical apparatus
US6424885B1 (en) * 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
US8944070B2 (en) * 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
US7217240B2 (en) * 1999-10-01 2007-05-15 Intuitive Surgical, Inc. Heart stabilizer
US6822635B2 (en) 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US6726699B1 (en) 2000-08-15 2004-04-27 Computer Motion, Inc. Instrument guide
EP2932884B1 (en) 2000-11-28 2020-09-09 Intuitive Surgical Operations, Inc. Endoscopic beating-heart stabilizer and vessel occlusion fastener
US6867770B2 (en) 2000-12-14 2005-03-15 Sensable Technologies, Inc. Systems and methods for voxel warping
US6958752B2 (en) * 2001-01-08 2005-10-25 Sensable Technologies, Inc. Systems and methods for three-dimensional modeling
JP3392120B2 (ja) * 2001-03-23 2003-03-31 任天堂株式会社 ゲーム装置及びそのプログラム
US20020165524A1 (en) * 2001-05-01 2002-11-07 Dan Sanchez Pivot point arm for a robotic system used to perform a surgical procedure
US20060178556A1 (en) 2001-06-29 2006-08-10 Intuitive Surgical, Inc. Articulate and swapable endoscope for a surgical robot
US6817974B2 (en) 2001-06-29 2004-11-16 Intuitive Surgical, Inc. Surgical tool having positively positionable tendon-actuated multi-disk wrist joint
US6728599B2 (en) 2001-09-07 2004-04-27 Computer Motion, Inc. Modularity system for computer assisted surgery
US6839612B2 (en) 2001-12-07 2005-01-04 Institute Surgical, Inc. Microwrist system for surgical procedures
US6793653B2 (en) 2001-12-08 2004-09-21 Computer Motion, Inc. Multifunctional handle for a medical robotic system
AU2003224882A1 (en) * 2002-04-05 2003-10-27 The Trustees Of Columbia University In The City Of New York Robotic scrub nurse
US6671651B2 (en) * 2002-04-26 2003-12-30 Sensable Technologies, Inc. 3-D selection and manipulation with a multiple dimension haptic interface
JP4449372B2 (ja) * 2002-09-02 2010-04-14 ソニー株式会社 ロボット装置及びその行動制御方法
KR101087996B1 (ko) 2002-12-06 2011-12-01 인튜어티브 서지컬 인코포레이티드 최소 침습 수술 기구
US7386365B2 (en) * 2004-05-04 2008-06-10 Intuitive Surgical, Inc. Tool grip calibration for robotic surgery
US20080133648A1 (en) 2002-12-08 2008-06-05 Immersion Corporation Methods and Systems for Providing Haptic Messaging to Handheld Communication Devices
US8059088B2 (en) 2002-12-08 2011-11-15 Immersion Corporation Methods and systems for providing haptic messaging to handheld communication devices
US8830161B2 (en) 2002-12-08 2014-09-09 Immersion Corporation Methods and systems for providing a virtual touch haptic effect to handheld communication devices
WO2005003015A1 (ja) * 2003-07-01 2005-01-13 Honda Motor Co., Ltd. 部品の搬送・取付装置及び搬送・取付方法
US7411576B2 (en) 2003-10-30 2008-08-12 Sensable Technologies, Inc. Force reflecting haptic interface
US7889209B2 (en) * 2003-12-10 2011-02-15 Sensable Technologies, Inc. Apparatus and methods for wrapping texture onto the surface of a virtual object
US7626589B2 (en) * 2003-12-10 2009-12-01 Sensable Technologies, Inc. Haptic graphical user interface for adjusting mapped texture
US7149596B2 (en) * 2004-01-13 2006-12-12 Sensable Technologies, Inc. Apparatus and methods for modifying a model of an object to enforce compliance with a manufacturing constraint
EP1562099A1 (en) * 2004-02-09 2005-08-10 SAP Aktiengesellschaft Method and computer system for document encryption
US9782130B2 (en) 2004-05-28 2017-10-10 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic surgical system
US7974674B2 (en) * 2004-05-28 2011-07-05 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic surgical system and method for surface modeling
US7632265B2 (en) 2004-05-28 2009-12-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Radio frequency ablation servo catheter and method
US8755864B2 (en) * 2004-05-28 2014-06-17 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic surgical system and method for diagnostic data mapping
US10863945B2 (en) * 2004-05-28 2020-12-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic surgical system with contact sensing feature
US10258285B2 (en) * 2004-05-28 2019-04-16 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic surgical system and method for automated creation of ablation lesions
US8528565B2 (en) 2004-05-28 2013-09-10 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic surgical system and method for automated therapy delivery
JP4534015B2 (ja) * 2005-02-04 2010-09-01 独立行政法人産業技術総合研究所 マスタ・スレーブ式ロボット制御情報確定方法
JP4378517B2 (ja) * 2005-03-25 2009-12-09 独立行政法人産業技術総合研究所 丸型ハンドルバルブ操作用ロボットアーム制御装置
US9789608B2 (en) 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US8155910B2 (en) * 2005-05-27 2012-04-10 St. Jude Medical, Atrial Fibrillation Divison, Inc. Robotically controlled catheter and method of its calibration
US7860614B1 (en) * 2005-09-13 2010-12-28 The United States Of America As Represented By The Secretary Of The Army Trainer for robotic vehicle
JP5044968B2 (ja) * 2006-04-03 2012-10-10 オムロン株式会社 要因推定装置、要因推定方法、プログラムおよびコンピュータ読取可能記録媒体
US9549663B2 (en) 2006-06-13 2017-01-24 Intuitive Surgical Operations, Inc. Teleoperated surgical retractor system
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US20090192523A1 (en) 2006-06-29 2009-07-30 Intuitive Surgical, Inc. Synthetic representation of a surgical instrument
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US12357400B2 (en) 2006-06-29 2025-07-15 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US10258425B2 (en) 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
US7457686B2 (en) * 2007-03-14 2008-11-25 Ortho—Clinical Diagnostics, Inc. Robotic arm alignment
US9084623B2 (en) 2009-08-15 2015-07-21 Intuitive Surgical Operations, Inc. Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide
US9469034B2 (en) 2007-06-13 2016-10-18 Intuitive Surgical Operations, Inc. Method and system for switching modes of a robotic system
US8620473B2 (en) 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US9089256B2 (en) 2008-06-27 2015-07-28 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
US9138129B2 (en) 2007-06-13 2015-09-22 Intuitive Surgical Operations, Inc. Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide
US8864652B2 (en) 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
US12239396B2 (en) 2008-06-27 2025-03-04 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide
TWI373361B (en) * 2008-10-09 2012-10-01 Univ Nat Chiao Tung Glove puppet manipulation system
DE102009012328A1 (de) * 2009-03-09 2010-09-16 Weber Maschinenbau Gmbh Breidenbach Vorrichtung zum Betreiben eines Roboters
US12266040B2 (en) 2009-03-31 2025-04-01 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US8918211B2 (en) 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
US9492927B2 (en) 2009-08-15 2016-11-15 Intuitive Surgical Operations, Inc. Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose
US8602456B2 (en) 2010-12-09 2013-12-10 Harris Corporation Ball joint having a passageway for routing a cable therethrough
US8606403B2 (en) 2010-12-14 2013-12-10 Harris Corporation Haptic interface handle with force-indicating trigger mechanism
US8918214B2 (en) 2011-01-19 2014-12-23 Harris Corporation Telematic interface with directional translation
US8918215B2 (en) 2011-01-19 2014-12-23 Harris Corporation Telematic interface with control signal scaling based on force sensor feedback
JP5669590B2 (ja) * 2011-01-20 2015-02-12 オリンパス株式会社 マスタスレーブマニピュレータ及び医療用マスタスレーブマニピュレータ
US9205555B2 (en) 2011-03-22 2015-12-08 Harris Corporation Manipulator joint-limit handling algorithm
US8694134B2 (en) 2011-05-05 2014-04-08 Harris Corporation Remote control interface
US8639386B2 (en) 2011-05-20 2014-01-28 Harris Corporation Haptic device for manipulator and vehicle control
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
US9026250B2 (en) 2011-08-17 2015-05-05 Harris Corporation Haptic manipulation system for wheelchairs
US8996244B2 (en) 2011-10-06 2015-03-31 Harris Corporation Improvised explosive device defeat system
US9802364B2 (en) 2011-10-18 2017-10-31 3D Systems, Inc. Systems and methods for construction of an instruction set for three-dimensional printing of a user-customizableimage of a three-dimensional structure
US9582178B2 (en) 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
US8954195B2 (en) 2012-11-09 2015-02-10 Harris Corporation Hybrid gesture control haptic system
US8965620B2 (en) 2013-02-07 2015-02-24 Harris Corporation Systems and methods for controlling movement of unmanned vehicles
US10507066B2 (en) 2013-02-15 2019-12-17 Intuitive Surgical Operations, Inc. Providing information of tools by filtering image areas adjacent to or on displayed images of the tools
JP6072256B2 (ja) * 2013-03-05 2017-02-01 オリンパス株式会社 操作入力装置およびマスタスレーブシステム
US9128507B2 (en) 2013-12-30 2015-09-08 Harris Corporation Compact haptic interface
US10514687B2 (en) * 2015-01-08 2019-12-24 Rethink Robotics Gmbh Hybrid training with collaborative and conventional robots
CN107921641B (zh) * 2015-08-25 2021-08-03 川崎重工业株式会社 机器人系统及其运转方法
JP6706489B2 (ja) * 2015-11-24 2020-06-10 川崎重工業株式会社 ロボットのダイレクト教示方法
JP7095944B2 (ja) * 2018-09-07 2022-07-05 アズビル株式会社 ロボットの直接教示装置及び直接教示方法
JP7199903B2 (ja) * 2018-10-12 2023-01-06 キヤノン株式会社 制御方法、物品の製造方法、ロボットシステム、プログラム、及び記録媒体
US20240051134A1 (en) * 2020-12-18 2024-02-15 Kawasaki Jukogyo Kabushiki Kaisha Controller, robot system and learning device
JP7624862B2 (ja) * 2021-03-31 2025-01-31 本田技研工業株式会社 ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
EP4316747A4 (en) * 2021-03-31 2024-12-25 Honda Motor Co., Ltd. Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3923166A (en) * 1973-10-11 1975-12-02 Nasa Remote manipulator system
DE2530261C2 (de) * 1974-10-22 1986-10-23 Asea S.p.A., Mailand/Milano Programmiereinrichtung für einen Manipulator
US4124944A (en) * 1977-07-08 1978-11-14 Lenco, Inc. Device for teaching and evaluating a person's skill as a welder
GB2003103B (en) * 1977-08-27 1982-01-06 British Aircraft Corp Ltd Simulators
US4360886A (en) * 1980-04-04 1982-11-23 Nordson Corporation Method and apparatus for analyzing the feasibility of performing a programmed sequence of motions with a robot
US4481591A (en) * 1982-03-03 1984-11-06 Nordson Corporation Method and apparatus for modifying a prerecorded sequence of ON/OFF commands for controlling a bistable device operating in conjunction with a moving robot under program control
US4518361A (en) * 1982-08-05 1985-05-21 Conway Malcolm J Method and apparatus for effecting and evaluating action upon visual imaging
US4573925A (en) * 1982-09-14 1986-03-04 Rockwell International Corporation Electronic flight instrument design and evaluation tool
DE3240251A1 (de) * 1982-10-30 1984-05-03 Deutsche Forschungs- und Versuchsanstalt für Luft- und Raumfahrt e.V., 5000 Köln Verfahren zum programmieren von bewegungen und erforderlichenfalls von bearbeitungskraeften bzw. -momenten eines roboters oder manipulators und einrichtung zu dessen durchfuehrung
JPS59160181A (ja) * 1983-03-02 1984-09-10 フアナツク株式会社 Nc用カラ−グラフイツク表示装置
EP0125776A2 (en) * 1983-04-13 1984-11-21 Nordson Corporation Robot control system
US4484120A (en) * 1983-04-13 1984-11-20 Nordson Corporation Auxiliary function command presequencing for a robot controller
JPH0327675Y2 (ja) * 1984-12-12 1991-06-14
JPS61146482A (ja) * 1984-12-20 1986-07-04 工業技術院長 異構造異自由度バイラテラル・マスタスレイブ・マニピユレ−タの制御装置

Also Published As

Publication number Publication date
JPS62199376A (ja) 1987-09-03
EP0235730A1 (en) 1987-09-09
US4837734A (en) 1989-06-06
EP0235730B1 (en) 1990-05-02
DE3762557D1 (de) 1990-06-07

Similar Documents

Publication Publication Date Title
JPH085018B2 (ja) 遠隔マニピユレ−シヨン方法及び装置
JP3841439B2 (ja) ロボットのジョグ送り方法
SE526119C2 (sv) Metod och system för programmering av en industrirobot
JP2925072B2 (ja) ロボットの位置教示のための移動制御方式
KR20170024769A (ko) 로봇 제어 장치
Haddad et al. Intelligent HMI and control for steering a powered wheelchair using a Raspberry Pi microcomputer
Hirai et al. Intelligent and cooperative control of telerobot tasks
JPS63139689A (ja) 遠隔マニピユレ−シヨン・システムの画像表示装置
JP2642745B2 (ja) 工業用ロボット
Kulakov et al. Information Technology for Interactive Robot Task Training Through Demonstration of Movement 1
JPH07104697B2 (ja) ロボット操作支援システム
Freund et al. Virtual reality technologies for the realistic simulation of excavators and construction machines: from VR-training simulators to telepresence systems
Inoue Building a Bridge Between AI and Robotics.
JP3378738B2 (ja) 溶接ロボット教示装置
Nielsen et al. Hiding the system from the user: Moving from complex mental models to elegant metaphors
JPH0760342B2 (ja) ロボット支援システム
JP2792842B2 (ja) ロボット作業教示方法および装置
Bischoff et al. Machine Vision for Intelligent Robots.
Bao et al. A multi-agent based robot telesupervision architecture for hazardous materials detection
CN119328773B (zh) 基于强化学习的机器人位置规划方法及装置
Kulakov et al. Intelligent method of robots teaching by show
Wegner Balancing robotic teleoperation and autonomy in a complex and dynamic environment
Suomela et al. Cognitive human machine interface of workpartner robot
JPS63179383A (ja) 操作技能評価装置
Graefe et al. Three examples of learning robots

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees