JPH06314103A - 制御装置と能動的センシング装置 - Google Patents

制御装置と能動的センシング装置

Info

Publication number
JPH06314103A
JPH06314103A JP5104173A JP10417393A JPH06314103A JP H06314103 A JPH06314103 A JP H06314103A JP 5104173 A JP5104173 A JP 5104173A JP 10417393 A JP10417393 A JP 10417393A JP H06314103 A JPH06314103 A JP H06314103A
Authority
JP
Japan
Prior art keywords
amount
unit
information
target
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5104173A
Other languages
English (en)
Inventor
Takashi Kimoto
隆 木本
Daiki Masumoto
大器 増本
Hiroshi Yamakawa
宏 山川
Shigemi Osada
茂美 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP5104173A priority Critical patent/JPH06314103A/ja
Priority to US08/233,423 priority patent/US5579442A/en
Publication of JPH06314103A publication Critical patent/JPH06314103A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Program-controlled manipulators
    • B25J9/16Program controls
    • B25J9/1602Program controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Program-controlled manipulators
    • B25J9/16Program controls
    • B25J9/1694Program controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33036Error back propagation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39268Layer perceptron, drive torque from state variables
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39295Learn position correction values to be added to reference values
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40617Agile eye, control position of camera, active vision, pan-tilt camera, follow object

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】本発明は、目標制御量の実現に必要となる操作
量を決定する制御装置と、アクティブセンシングを実現
する能動的センシング装置とに関し、複雑な制御対象に
対しても簡単に操作量を決定できるようにする制御装置
の提供と、認識率向上/認識高速性を実現する能動的セ
ンシング装置の提供とを目的とする。 【構成】制御対象の順モデルを学習したネットワークを
用意し、このネットワークを用いて緩和アルゴリズムに
従って目標制御量を実現する操作量を生成するように構
成し、また、認識ネットワークと予測ネットワークとを
用意し、認識ネットワークの認識結果を予測ネットワー
クに入力し、予測ネットワークの予測結果を認識ネット
ワークにフィードバックするとともに、予測ネットワー
クを用いて緩和アルゴリズムに従って運動指令を生成す
るように構成する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、制御対象の制御量を目
標制御量となるようにと制御するときに必要となる操作
量を決定する制御装置と、認識と行動とを並列的・協調
的に行うアクティブセンシングを実現する能動的センシ
ング装置とに関し、特に、冗長度の高い制御対象や非線
形な制御対象に対しても簡単に操作量を決定できるよう
にする制御装置と、認識率の向上と認識の高速性とを実
現する能動的センシング装置に関する。
【0002】制御システムでは、制御対象の制御量を目
標値にと制御していくために必要となる制御対象に与え
る操作量を決定していく。この操作量の決定は、冗長度
の高い制御対象や非線形な制御対象に対しても簡単に実
行できるようにしていく必要がある。
【0003】また、最近、認識と行動とを並列的・協調
的に行うアクティブセンシングが注目されてきている。
このアクティブセンシングを実用的なものとするために
は、認識率の向上と認識の高速性とを実現する構成の構
築が必要である。
【0004】
【従来の技術】最初に、従来の制御システムについて説
明する。図22に、従来の自動制御理論における一般的
なフィードバック制御系のブロック構成を図示する。
【0005】図中の制御対象は、物体やプロセスやロボ
ットや産業装置等である。検出部は、制御対象の制御量
を目標値と比較し得るような適切なフィードバック量に
変換するものである。差分部は、検出部の出力するフィ
ードバック量と目標値との差分値を算出することで制御
偏差を求めるものである。制御部は、差分部の算出する
制御偏差から動作信号を生成するものである。操作部
は、制御部の生成する動作信号を操作量に変えて制御対
象に働きかけるものである。
【0006】この構成に従い、従来のフィードバック制
御系では、検出部が制御対象の制御量を検出してフィー
ドバック量に変換し、差分部がこのフィードバック量と
目標値との差分値から制御偏差を取り出し、制御部がこ
の制御偏差を動作信号に変換し、操作部がこの動作信号
に応じた操作量を決定して制御偏差がなくなるようにと
制御対象に働きかけていくことで、制御対象の制御量が
目標値になるようにと制御していくことになる。この制
御処理に従って、外乱の影響を受けることなく、制御量
を目標値にと精度よく一致させることができることにな
る。
【0007】この従来のフィードバック制御技術をロボ
ットのマニピュレータ制御に適用する場合について説明
する。このマニピュレータ制御は、関節角度を制御する
ことでマニピュレータの手先位置の姿勢を目標値にと制
御するものである。
【0008】図23に、マニピュレータの逆運動学演算
が求められる場合に行われているマニピュレータ制御の
ブロック構成を図示する。ここで、逆運動学とは、マニ
ピュレータの位置、姿勢、速度等が与えられるときに、
これを実現する関節の角度や速度等を求める問題をい
う。この場合には、逆運動学演算機構をサーボ系の前段
に設置して、この機構に従って目標となる手先位置姿勢
指令を関節角度指令に変換し、変換した関節角度指令と
観測した関節角度との偏差によりマニピュレータをフィ
ードバック制御することになる。
【0009】現在の産業用マニピュレータは逆運動学を
解ける構造を採用しているので、この図23に従う制御
系が採用されているが、逆運動学が解けない複雑な構造
を持つマニピュレータについては、図24に示すマニピ
ュレータ制御が行われている。この方法では、順運動学
演算機構によりマニピュレータの関節角度を座標系の位
置姿勢に変換し、位置姿勢指令とこの変換された観測の
位置姿勢との偏差を求めて、これに対して逆ヤコビ行列
演算を施すことで関節角度の偏差を生成してマニピュレ
ータの各関節角度指令値を得ていくものである。
【0010】次に、従来のセンシング技術について説明
し、続いて、最近注目を集めているアクティブセンシン
グ技術について説明する。一般に、センシング技術は、
観測対象を視覚センサ等の検出部で観測することにより
観測対象の特徴を表現するようなセンサ出力を得て、こ
れを認識部において、既存の知識との照合や観測対象の
特徴量と比較を行うことで観測対象を認識していくもの
である。図25に、画像認識のセンシング技術を図示す
る。
【0011】例えば、最近研究の盛んなコンピュータビ
ジョンについて考えると、観測対象である元の3次元世
界からテレビカメラ等の視覚センサにより2次元画像を
得る。観測対象のセンシングは、この2次元画像(イメ
ージ)から3次元世界(シーン)の状態を推測する問題
になる。ここで、入力画像は、カメラの配置や、照明状
態や、観測対象の形状・反射率・相互配置等の様々な要
因の影響を受けるので、このような観測対象の見え方を
コンピュータに教えておいて、2次元画像から3次元画
像への逆問題を解くことでシーンの特徴を推論する。と
ころが、一般に、2次元画像から3次元画像への逆問題
は無数の解を持ち、解が一意に定まらない不良設定問題
になってしまう。そこで、従来では、照明条件とか物体
の反射率等に条件を仮定したりして認識を行っていた。
【0012】このような従来のセンシング技術の限界を
背景にして、センサを動かしつつ観測対象をセンシング
していくというアクティブセンシング技術が研究される
ようになってきた。
【0013】図26に、アクティブセンシング技術のブ
ロック構成を図示する。このアクティブセンシング技術
では、認識を単独のものと捕らえずに、認識と行動とを
並列的・協調的に行うことで認識精度の向上を図るもの
で、センシングに知覚認識する目標を与え、この目標を
達成するセンシングを実現し得るような動作を実行す
る。例えば、対象物体の探索動作や対象物体の全体像を
把握するよう動作を実行するのである。
【0014】このアクティブセンシング技術の実現形態
の一例を図27に図示する。計測動作を実行するマニピ
ュレータとして多自由度アームを用いるとともに、ハン
ドカメラを視覚センサとして用いている。この構成に従
って、視覚センサで捕らえた観測対象に対して、探索動
作、全体像の把握、あいまいな点に対する注視等の計測
行動を行うことで、観測対象の認識精度の向上を実現す
るものである。図28に、この図27の実現形態を採る
アクティブセンシング技術のブロック構成を図示する。
【0015】
【発明が解決しようとする課題】図23に示す従来のフ
ィードバック制御系に従うと、逆運動学演算機構を備え
る必要があるが、制御対象によっては解析的に逆運動学
を求めることができず、これがために、制御対象の構造
に制限を与えてしまうという問題点があった。例えば、
マニピュレータの構造に制限を与えてしまうという問題
点があったのである。。そして、制御対象の自由度が冗
長であったり、制御対象が非線形性を持つ場合には、逆
運動学を求めることができないという問題点があった。
【0016】一方、図24に示す従来のフィードバック
制御系に従うと、逆ヤコビ行列演算を実行する必要があ
るが、この演算は逆行列の計算を行わなくてはならない
ことから処理時間がかかり、これがために、制御の高速
性を実現できないという問題点があった。そして、解析
的に逆行列が求められない特異点が存在するという問題
点があった。
【0017】また、従来のアクティブセンシング技術で
は、計測行動のアルゴリズムは人間による対象の観測
や、人間が持つ対象に関しての知識によって実現されて
おり、現実には、アクチュエータをセンシングの一部と
して利用しようとする程度のものに過ぎなかった。これ
から、認識率も十分なものではなかった。しかも、計測
行動により生じた観測対象に関するセンサ信号の変化で
しかセンシングに反映できず、予測制御的な要素を組み
込んでいないことから、認識速度が遅いという問題点も
あった。
【0018】本発明はかかる事情に鑑みてなされたもの
であって、制御対象の制御量を目標制御量となるように
と制御するときに必要となる操作量を決定するときにあ
って、冗長度の高い制御対象や非線形な制御対象に対し
ても簡単に操作量を決定できるようにする新たな制御装
置の提供を目的とするとともに、認識と行動とを並列的
・協調的に行うアクティブセンシングを実現する能動的
センシング装置にあって、認識率の向上と認識の高速性
とを実現する新たな能動的センシング装置の提供を目的
とする。
【0019】
【課題を解決するための手段】図1に本発明により構成
される制御装置の原理構成、図2に本発明により構成さ
れる能動的センシング装置の原理構成を図示する。
【0020】図1中、1は本発明により構成される制御
装置であって、制御対象の制御量を目標制御量となるよ
うにと制御するときに必要となる操作量を決定して制御
対象に出力していくものである。
【0021】本発明の制御装置1は、変換部10と、差
分部11と、算出部12と、出力部13とを備える。こ
の変換部10は、例えばニューラルネットワークから構
成され、制御対象の示す操作量と制御量との間の対応関
係を写像する構成を採って、操作量を入力として、この
入力に対応付けられる制御量を出力するか、あるいは、
制御対象の示す操作量及び状態量と制御量との間の対応
関係を写像する構成を採って、操作量及び状態量を入力
として、この入力に対応付けられる制御量を出力する。
差分部11は、目標制御量と変換部10の出力する制御
量との差分量を算出する。算出部12は、変換部10に
入力される操作初期量に対しての操作修正量を算出す
る。出力部13は、目標制御量を実現する操作量を制御
対象に出力する。
【0022】図2中、2は本発明により構成される能動
的センシング装置であって、観測対象を観測することで
観測センシング情報を検出する検出部20と、動作指令
情報に従って検出部20を駆動する操作部21とを備え
ることで、認識と行動とを並列的・協調的に行うアクテ
ィブセンシングを実現するものである。
【0023】本発明の能動的センシング装置2は、認識
部22と、第1の算出部23と、第1のラッチ部24
と、第1の差分部25と、予測部26と、第2の算出部
27と、第2のラッチ部28と、第2の差分部29とを
備える。
【0024】この認識部22は、例えばニューラルネッ
トワークから構成され、観測対象の状態情報と検出部2
0の検出する観測センシング情報との間の対応関係を写
像する構成を採って、観測対象の状態情報を入力とし
て、この入力に対応付けられる観測センシング情報を出
力する。第1の算出部23は、認識部22に入力される
状態情報についての新たな状態情報を算出する。第1の
ラッチ部24は、認識部22に入力される状態情報をラ
ッチし、また、第1の算出部23の算出する新たな状態
情報をラッチする。第1の差分部25は、認識部22の
出力する観測センシング情報と、検出部20の検出する
観測センシング情報との差分情報を算出する。
【0025】予測部26は、例えばニューラルネットワ
ークから構成され、観測対象の状態情報/操作部21へ
の動作指令情報と、この動作指令情報に従って変更され
る観測対象の状態情報との間の対応関係を写像する構成
を採って、第1の算出部23の算出する状態情報と、操
作部21への動作指令情報とを入力として、この入力に
対応付けられる観測対象の状態情報を出力する。第2の
算出部27は、予測部26に入力される動作指令情報に
ついての新たな動作指令情報を算出する。第2のラッチ
部28は、予測部26に入力される動作指令情報をラッ
チし、また、第2の算出部27の算出する新たな動作指
令情報をラッチする。第2の差分部29は、観測対象の
目標状態情報と、予測部26の出力する観測対象の状態
情報との差分情報を算出する。
【0026】この構成を採るときにあって、予測部26
の出力する状態情報を認識部22に入力していく構成が
採られる。
【0027】
【作用】本発明の制御装置1では、操作初期量が与えら
れると、変換部10は、写像したデータ対応関係に従っ
て制御量を出力し、この出力を受けて、差分部11は、
目標制御量と変換部10の出力する制御量との差分量を
算出する。この差分量算出を受けて、算出部12は、例
えば緩和アルゴリズムに従って、目標制御量と変換部1
0の出力する制御量が一致するようになる操作初期量に
対しての操作修正量を算出し、この算出を受けて、出力
部13は、変換部10に入力される操作初期量と、算出
部12の算出する操作修正量との加算量を制御対象への
操作量として出力する。
【0028】この算出処理にあたって、算出部12は、
変換部10に入力される複数の操作量種別の一部又は全
てに対して制限量を課しつつ操作修正量を算出していく
ことがあり、この制限量等の制限条件に従って、目標制
御量と変換部10の出力する制御量との一致を実現する
操作修正量が得られないときには、その制限条件の許容
する操作修正量を算出される操作修正量として採用して
いくことがある。ここで、この擬似的な操作修正量に従
って出力部13が操作量を出力していくときには、変換
部10に入力される操作初期量として出力部13が前回
出力した操作量を用いていくことが好ましい。なお、算
出部12は、変換部10に入力される複数の操作量種別
の内の一部を操作修正量の算出対象とすることがある。
【0029】このように、本発明の制御装置1によれ
ば、逆運動学演算や逆ヤコビ行列演算を用いることな
く、目標制御量を実現する操作量を決定することができ
るようになるので、制御対象に制約条件を与えることな
く操作量を決定できるようになるとともに、冗長度の高
い制御対象や非線形な制御対象に対しても簡単に操作量
を決定できるようになる。
【0030】本発明の能動的センシング装置2では、第
1のラッチ部24を介して観測対象の状態情報(最初は
初期情報)が与えられると、認識部22は、写像したデ
ータ対応関係に従って観測センシング情報を出力し、こ
の出力を受けて、第1の差分部25は、認識部22の出
力する観測センシング情報と、検出部20の検出する観
測センシング情報との差分情報を算出する。この差分情
報算出を受けて、第1の算出部23は、例えば緩和アル
ゴリズムに従って、認識部22の出力する観測センシン
グ情報と、検出部20の検出する観測センシング情報が
一致するようになる新たな状態情報を算出し、この新た
な状態情報に従って第1のラッチ部24のラッチする状
態情報を更新することで予測部26に入力していく。
【0031】一方、第1の算出部23の算出する状態情
報と、第2のラッチ部28を介して操作部21への動作
指令情報の初期情報とが与えられると、予測部26は、
写像したデータ対応関係に従って予測情報となる観測対
象の新たな状態情報を出力し、この出力を受けて、第2
の差分部29は、観測対象の目標状態情報と、予測部2
6の出力する状態情報との差分情報を算出する。この差
分情報算出を受けて、第2の算出部27は、例えば緩和
アルゴリズムに従って、観測対象の目標状態情報と、予
測部26の出力する状態情報が一致するようになる新た
な動作指令情報を算出して、この動作指令情報に従って
第2のラッチ部28のラッチする動作指令情報を更新す
ることで操作部21に出力する。このとき、予測部26
の出力する状態情報が第1のラッチ部24にセットされ
ていくことで、認識部22に入力される状態情報が新た
なものに更新されていくことなる。
【0032】この算出処理にあたって、第2の算出部2
7は、予測部26に入力される複数の動作指令情報種別
の一部又は全てに対して制限情報を課しつつ新たな動作
指令情報を算出していくことがあり、この制限情報等の
制限条件に従って、目標状態情報と予測部26の出力す
る状態情報との一致を実現する動作指令情報が得られな
いときには、その制限条件の許容する動作指令情報を算
出される動作指令情報として採用していくことがある。
ここで、この擬似的な動作指令情報に従って操作部21
へ動作指令情報を出力していくときには、予測部26に
入力される動作指令情報の初期情報として第2の算出部
27が前回採用した動作指令情報を用いていくことが好
ましい。
【0033】なお、第1の算出部23は、認識部22に
入力される複数の状態情報種別の内の一部を状態情報の
算出対象とすることがあり、また、第2の算出部27
は、予測部26に入力される複数の動作指令情報種別の
内の一部を動作指令情報の算出対象とすることがある。
【0034】このように、本発明の能動的センシング装
置2によれば、観測対象を観測することで観測センシン
グ情報を検出する検出部20と、動作指令情報に従って
検出部20を駆動する操作部21とを備えることで、認
識と行動とを並列的・協調的に行うアクティブセンシン
グを実現するときにあって、行動に伴う認識結果の予測
情報を利用しつつ目標とする認識結果の獲得を実現する
行動を生成していく構成を採ることから、認識率の向上
と認識の高速性とを実現することができるようになる。
【0035】
【実施例】以下、実施例に従って本発明を詳細に説明す
る。最初に、本発明の制御装置1の一実施例について説
明する。
【0036】図3に、この実施例の制御装置1が制御対
象とするマニピュレータを図示する。この図のマニピュ
レータは、2つの関節角度θ1,θ2 を操作量とし、手先
位置(x,y)を制御量とするものであって、このマニ
ピュレータを制御対象とする本発明の制御装置1は、現
在の関節角度θ1,θ2 が操作量初期値として与えられる
ときに、手先位置を所望の目標位置に移動させるのに必
要となる関節角度指令値を決定していくものである。
【0037】図4に、図3のマニピュレータを制御対象
とする制御装置1の装置構成の一実施例を図示する。図
中、30aは関節角度初期値を入力として関節角度指令
値を決定するデータ変換機構、31aはデータ変換機構
30aの必要とする目標手先位置と実際手先位置との偏
差値を算出する算出機構である。なお、マニピュレータ
の機構制限等により、一度に目標手先位置まで移動可能
にする関節角度指令値が得られない場合には、その制限
範囲内で決定された関節角度指令値により規定される関
節角度が新たにデータ変換機構30aに関節角度初期値
として入力されていくことになる。なお、このとき、マ
ニピュレータの関節角度を直接フィードバックしていく
ことも可能である。
【0038】図5に、データ変換機構30aの一実施例
を図示する。この実施例のデータ変換機構30aは、ニ
ューラルネットワークから構成されるものであって、入
力値をそのまま分配して出力する入力ユニットの複数よ
り構成される入力層と、入力層の出力値(yk ) と割り
付けられる重み値(wkj)とを受け取り規定の演算処理
を行って出力する基本ユニットの複数より構成される中
間層と、中間層の出力値(yj )と割り付けられる重み
値(wji)とを受け取り規定の演算処理を行って出力す
る基本ユニットの複数より構成される出力層(出力値y
i )とから構成される。
【0039】ここで、これらの中間層及び出力層を構成
することになる基本ユニットは、中間層の基本ユニット
を例にして説明するならば、図6に示すように、入力値
と対応の重み値との積和値xi を算出し、この積和値に
変換処理f(xi ) を施すことで出力値を決定して出力
していくよう処理する。なお、図3のマニピュレータを
制御対象とする場合には、図7に示すように、データ変
換機構30aの入力層の入力ユニットのユニット数は、
操作量が2種類であることに対応して2個となり、一
方、出力層の基本ユニットのユニット数は、目標手先位
置が2次元であることに対応して2個となる。
【0040】このデータ変換機構30aのニューラルネ
ットワークの重み値は、マニピュレータの動作特性を写
像するようにと予め学習されるものである。具体的に
は、様々な関節角度θ1,θ2 の操作量をマニピュレータ
に与えて、このときの手先位置を収集することで学習信
号を生成する。そして、この学習信号の関節角度をニュ
ーラルネットワークの入力層に与えるときに、出力層か
ら対となる手先位置が出力されることになるようにと良
く知られているバックプロパゲーション法(誤差逆伝播
法)に従って重み値を学習していくことで実現されるも
のである。
【0041】次に、緩和アルゴリズムについて説明す
る。この緩和アルゴリズムは、データ変換機構30aの
出力する出力値と、その出力値の目標値との誤差関数E
が小さなものとなる入力値の修正値を求めるアルゴリズ
ムである。
【0042】この入力値の修正値は最急降下法により求
められるものであって、具体的には、入力ユニットの入
力値の変更差分値Δyk は、
【0043】
【数1】
【0044】に従って求められる。この〔数1〕式中の
誤差変化δk は、以下に説明するように、誤差逆伝播法
と同様に出力層から順番に導出していくことになる。先
ず、出力層の出力値yi に関する誤差変化δi は、
【0045】
【数2】
【0046】となる。次に、中間層の出力値yj に関す
る誤差変化δj は、
【0047】
【数3】
【0048】である。ここで、図6中に示すように、
【0049】
【数4】
【0050】が成立することから、〔数3〕式は、
【0051】
【数5】
【0052】となり、中間層の出力値yj に関する誤差
変化δj が求められる。入力層の出力値yk に関する誤
差変化δk についても同様にして求められることで、
【0053】
【数6】
【0054】というように入力層の出力値yk に関する
誤差変化δk が求められる。誤差関数Eが、
【0055】
【数7】
【0056】である場合、出力層の出力値yi に関する
誤差変化δi は、
【0057】
【数8】
【0058】と求まるので、〔数5〕〔数6〕式に従
い、出力層から入力層に向けて順次計算することで、入
力層の出力値yk に関する誤差変化δk を算出すること
ができ、これを〔数1〕式に代入していくことで入力層
の入力値の変更差分値Δyk を求めることができる。
【0059】なお、基本ユニットの変換処理f(xi )
が図6中に示すように、
【0060】
【数9】
【0061】というシグモイド関数である場合には、そ
の微分が、
【0062】
【数10】
【0063】であるので、〔数5〕〔数6〕式中の微分
項は簡単に計算できる。このようにして、緩和アルゴリ
ズムは、図8に示すように、出力層から入力層に向けて
誤差を逆伝播していくことで、出力層の出力値の誤差が
減少するようになる入力層の入力値yk の変更差分値Δ
k を求めていくのである。
【0064】図3のマニピュレータを制御対象とする制
御装置1は、この緩和アルゴリズムを使って、マニピュ
レータの現在の関節角度θ1,θ2 が与えられるときに、
手先位置を所望の目標位置に移動させるのに必要となる
関節角度指令値を決定していくことになる。図9に、こ
の制御装置1の実行する処理フローの一実施例を図示す
る。
【0065】次に、この処理フローについて説明する。
制御装置1は、目標手先位置を実現する関節角度指令値
を決定していくときには、この処理フローに示すよう
に、先ず最初に、ステップ1で、変数r(t)に手先の
目標位置を設定し、変数c(t)に現在の関節角度θ1,
θ2 を設定し、変数count にゼロ値を設定する。次に、
ステップ2で、変数c(t)に設定される関節角度値を
データ変換機構30aのニューラルネットワークの入力
層に入力することで、出力層からその関節角度値に対応
付けられる実際の手先位置を入手する。
【0066】続いて、ステップ3で、算出機構31aを
起動することで、実際手先位置と目標手先位置との偏差
値である誤差を計算する。続いて、ステップ4で、この
算出した誤差が許容誤差以上であるか否かを判断して、
許容誤差以上であるときには、ステップ5に進んで、上
述の緩和アルゴリズムを実行することでこの誤差を減少
させる関節角度の変更差分値を算出するとともに、変数
count の値を1つカウントアップする。
【0067】続いて、ステップ6で、変数c(t)に設
定される関節角度値と、ステップ5で算出した関節角度
の変更差分値とを加算することで関節角度指令値を生成
して、この生成した関節角度指令値を新たに変数c
(t)に設定する。続いて、ステップ7で、変数count
の値が指定回数よりも大きくなった否かを判断して、大
きくなっていないことを判断するときには、ステップ2
に戻って緩和アルゴリズムを繰り返し実行していくこと
で、データ変換機構31aの出力する実際手先位置と目
標手先位置との誤差が許容誤差に収まるようになる関節
角度指令値を求めていく。
【0068】そして、ステップ4で、データ変換機構3
1aの出力する実際手先位置と目標手先位置との誤差が
許容誤差に収まることを判断すると、ステップ8に進ん
で、生成した関節角度指令値に従って、マニピュレータ
の関節角度を駆動するアクチュエータを制御すること
で、マニピュレータの手先を目標位置にと移動させるよ
う制御する。
【0069】一方、ステップ7で変数count の値が指定
回数よりも大きくなったことを判断するときにも、ステ
ップ8に進んで、生成した関節角度指令値に従って、マ
ニピュレータの関節角度を駆動するアクチュエータを制
御する。このときには、マニピュレータの手先は目標位
置までは移動しないので、この図9の処理フローを再び
最初から実行していくことになる。なお、このとき、ス
テップ1で、変数c(t)に現在の関節角度θ1,θ2
設定することになるが、この関節角度については、直接
測定していくのではなくて、前回の関節角度指令値から
特定されるものを使用するものであってもよい。
【0070】このようにして、図3のマニピュレータを
制御対象とする場合には、本発明の制御装置1を用いる
ことで、現在の関節角度θ1,θ2 が操作量初期値として
与えられるときに、マニピュレータの手先位置を所望の
目標位置に移動させるのに必要となる関節角度指令値を
逆運動学演算や逆ヤコビ行列演算を実行することなく決
定できるようになる。
【0071】次に、本発明の制御装置1の他の実施例に
ついて説明する。図10に、この実施例の制御装置1が
制御対象とするマニピュレータを図示する。この図のマ
ニピュレータは、2つの関節角度θ1,θ2 を状態量と
し、この2つの関節角度θ1,θ2 の偏差値Δθ1,Δθ2
を操作量とし、手先位置(x,y)を制御量とするもの
であって、このマニピュレータを制御対象とする本発明
の制御装置1は、現在の関節角度θ1,θ2 が状態量初期
値として与えられるとともに、関節角度偏差指令値の初
期値が与えられるときに、手先位置を所望の目標位置に
移動させるのに必要となる関節角度偏差指令値を決定し
ていくものである。
【0072】図11に、図10のマニピュレータを制御
対象とする制御装置1の装置構成の一実施例を図示す
る。図中、30bは現関節角度値/関節角度偏差指令初
期値を入力として関節角度偏差指令値を決定するデータ
変換機構、31bはデータ変換機構30bの必要とする
目標手先位置と実際手先位置との偏差値を算出する算出
機構である。なお、マニピュレータの機構制限等によ
り、一度に目標手先位置まで移動可能にする関節角度偏
差指令値が得られない場合には、その制限範囲内で決定
された関節角度偏差指令値により移動される関節角度が
新たにデータ変換機構30bに入力されていくことにな
る。
【0073】このデータ変換機構30bは、図5に示し
たデータ変換機構30aと同様に、ニューラルネットワ
ークで構成することが可能であって、このときには、図
12に示すように、入力層の入力ユニットのユニット数
は、操作量が2種類であることと、状態量が2種類であ
ることに対応して4個となり、出力層の基本ユニットの
ユニット数は、目標手先位置が2次元であることに対応
して2個となる。
【0074】このデータ変換機構30bのニューラルネ
ットワークの重み値は、マニピュレータの動作特性を写
像するようにと予め学習されるものである。具体的に
は、様々な関節角度θ1,θ2 を示すときに、様々な関節
角度偏差指令値の操作量をマニピュレータに与えて、こ
のときの手先位置を収集することで学習信号を生成す
る。そして、この学習信号の関節角度/関節角度偏差指
令値をニューラルネットワークの入力層に与えるとき
に、出力層から対となる手先位置が出力されることにな
るようにと良く知られているバックプロパゲーション法
に従って重み値を学習していくことで実現されるもので
ある。
【0075】図10のマニピュレータを制御対象とする
制御装置1は、上述の緩和アルゴリズムを使って、マニ
ピュレータの現在の関節角度θ1,θ2 と、関節角度偏差
指令値の初期値とが与えられるときに、手先位置を所望
の目標位置に移動させるのに必要となる関節角度偏差指
令値を決定していくことになる。図13に、この制御装
置1の実行する処理フローの一実施例を図示する。
【0076】次に、この処理フローについて説明する。
制御装置1は、目標手先位置を実現する関節角度偏差指
令値を決定していくときには、この処理フローに示すよ
うに、先ず最初に、ステップ1で、変数r(t)に手先
の目標位置を設定し、変数m(t)に関節角度偏差指令
値の初期値としてゼロ値を設定し、変数c(t)に現在
の関節角度θ1,θ2 を設定し、変数count にゼロ値を設
定する。次に、ステップ2で、変数c(t)に設定され
る関節角度値と、変数m(t)に設定される関節角度偏
差指令値の初期値とをデータ変換機構30bのニューラ
ルネットワークの入力層に入力することで、出力層から
その入力に対応付けられる実際の手先位置を入手する。
【0077】続いて、ステップ3で、算出機構31bを
起動することで、実際手先位置と目標手先位置との偏差
値である誤差を計算する。続いて、ステップ4で、この
算出した誤差が許容誤差以上であるか否かを判断して、
許容誤差以上であるときには、ステップ5に進んで、上
述の緩和アルゴリズムを実行することでこの誤差を減少
させる関節角度偏差指令値の変更差分値を算出するとと
もに、変数count の値を1つカウントアップする。
【0078】続いて、ステップ6で、変数m(t)に設
定される関節角度偏差指令値と、ステップ5で算出した
関節角度偏差指令値の変更差分値とを加算することで関
節角度偏差指令値を生成して、この生成した関節角度偏
差指令値を新たに変数m(t)に設定する。続いて、ス
テップ7で、変数count の値が指定回数よりも大きくな
ったか否かを判断して、大きくなっていないことを判断
するときには、ステップ2に戻って緩和アルゴリズムを
繰り返し実行していくことで、データ変換機構31bの
出力する実際手先位置と目標手先位置との誤差が許容誤
差に収まるようになる関節角度偏差指令値を求めてい
く。
【0079】そして、ステップ4で、データ変換機構3
1bの出力する実際手先位置と目標手先位置との誤差が
許容誤差に収まることを判断すると、ステップ8に進ん
で、生成した関節角度偏差指令値に従って、マニピュレ
ータの関節角度偏差を駆動するアクチュエータを制御す
ることで、マニピュレータの手先を目標位置にと移動さ
せるよう制御する。一方、ステップ7で変数count の値
が指定回数よりも大きくなったことを判断するときに
も、ステップ8に進んで、生成した関節角度偏差指令値
に従って、マニピュレータの関節角度偏差を駆動するア
クチュエータを制御する。このときには、マニピュレー
タの手先は目標位置までは移動しないので、この図13
の処理フローを再び最初から実行していくことになる。
なお、このとき、ステップ1で、変数m(t)に関節角
度偏差指令値の初期値を設定することになるが、この初
期値については、前回の関節角度偏差指令値を使用する
ことが好ましい。
【0080】このようにして、図10のマニピュレータ
を制御対象とする場合には、本発明の制御装置1を用い
ることで、マニピュレータの現在の関節角度θ1,θ
2 と、関節角度偏差指令値の初期値とが与えられるとき
に、マニピュレータの手先位置を所望の目標位置に移動
させるのに必要となる関節角度偏差指令値を逆運動学演
算や逆ヤコビ行列演算を実行することなく決定できるよ
うになる。
【0081】次に、視覚センサを用いて物体の姿勢認識
を行う観測システムを例にして、本発明の能動的センシ
ング装置2の一実施例について説明する。観測物体の姿
勢が与えられるときに、視覚センサをその姿勢に向けて
移動させることで、その姿勢から観測物体を観測できる
ようにする観測システムを考える。ここで、視覚センサ
の位置は作業座標系で定義され、観測物体の姿勢は物体
の座標系で定義されることになる。この観測システムで
は、図14に示すように、原点を中心として回転する棒
の先端に視覚センサとなるテレビカメラが取り付けられ
ており、原点に配設されるアクチュエータに対して、指
定した緯度、経度に対応付けられるトルク電流(θc,φ
c )を供給することで、この棒を回転することができる
ようになっている。
【0082】この観測システムを実現するために、本発
明の能動的センシング装置2は、目標値として観測物体
の姿勢(θo ' ,φo ' )が与えられると、トルク電流
(θ c,φc )を制御することによりテレビカメラを移動
させることで、この目標姿勢から観測物体を観測する制
御処理を実行していく機能を持つ必要がある。ここで、
観測物体の姿勢認識を可能にするために、観測物体に4
点のマーカを取り付けることを想定する。
【0083】図15に、この観測システムに適用する場
合の本発明の能動的センシング装置2の装置構成の一実
施例を図示する。図中、40は認識ニューラルネットワ
ークであって、2入力/8出力のニューラルネットワー
クから構成されて、観測物体の姿勢と4点マーカのテレ
ビ画像データとの入出力関係を学習信号として用いるこ
とで、この入出力関係が実現できるようにと予め重み値
が学習されるものであり、観測物体の姿勢が与えられる
ときに、これに対応する4点マーカのテレビ画像データ
を出力するものである。なお、図中に示すように、この
認識ニューラルネットワーク40の入力値となる観測物
体の姿勢を(θ0,φo )で表してある。
【0084】そして、この認識ニューラルネットワーク
40に対応付けられて、認識ニューラルネットワーク4
0に入力される観測物体の姿勢を変更対象とする上述の
緩和アルゴリズムを実行する機構が備えられており、こ
の実行機構に従って、認識ニューラルネットワーク40
の出力する4点マーカのテレビ画像データと、実際にテ
レビカメラの撮影する4点マーカのテレビ画像データと
が一致することになるようにと、認識ニューラルネット
ワーク40に入力される観測物体の姿勢が更新されてい
く構成が採られている。
【0085】41は誤差算出機構であって、認識ニュー
ラルネットワーク40の出力する4点マーカのテレビ画
像データと、実際にテレビカメラの撮影する4点マーカ
のテレビ画像データとの誤差を算出するものである。認
識ニューラルネットワーク40に対応付けて備えられる
緩和アルゴリズムの実行機構は、この誤差算出機構41
の算出する誤差が少なくなるようにと、認識ニューラル
ネットワーク40に入力される観測物体の姿勢を更新す
ることになる。
【0086】図16に、この緩和アルゴリズムの実行機
構の実行する処理フローの一実施例を図示する。すなわ
ち、この実行機構は、認識ニューラルネットワーク40
に観測物体の姿勢情報が入力されると、誤差算出機構4
1に従って、認識ニューラルネットワーク40の出力す
る4点マーカのテレビ画像データと、実際にテレビカメ
ラの撮影する4点マーカのテレビ画像データとの誤差を
得て、この誤差を用いて緩和アルゴリズムを実行してい
くことで、この誤差が許容誤差に収まるようになる観測
物体の姿勢を求めていくよう処理するものである。
【0087】42は予測ニューラルネットワークであっ
て、4入力/2出力のニューラルネットワークから構成
されて、観測物体の姿勢と、アクチュエータに与えるト
ルク電流とを学習信号の入力側提示信号とし、そのトル
ク電流により変化する観測物体の姿勢を学習信号の出力
側提示信号として用いることで、この入出力関係が実現
できるようにと予め重み値が学習されるものであり、認
識ニューラルネットワーク40の出力する観測物体の姿
勢と、そのときにアクチュエータに与えるトルク電流と
が与えられるときに、これに対応する観測物体の姿勢を
出力するものである。
【0088】ここで、この予測ニューラルネットワーク
42の出力する観測物体の姿勢が、認識ニューラルネッ
トワーク40に入力される構成が採られている。そし
て、この予測ニューラルネットワーク42に対応付けら
れて、予測ニューラルネットワーク42に入力されるト
ルク電流を変更対象とする上述の緩和アルゴリズムを実
行する機構が備えられており、この実行機構に従って、
観測物体の目標姿勢と、予測ニューラルネットワーク4
0の出力する観測物体の姿勢とが一致することになるよ
うにと、アクチュエータに与えることになるトルク電流
が更新されていく構成が採られている。図17に、この
緩和アルゴリズムの実行機構も含めた予測ニューラルネ
ットワーク42の詳細構成を図示する。
【0089】43は誤差算出機構であって、観測物体の
目標姿勢と、予測ニューラルネットワーク42の出力す
る観測物体の姿勢との誤差を算出するものである。予測
ニューラルネットワーク42に対応付けて備えられる緩
和アルゴリズムの実行機構は、この誤差算出機構43の
算出する誤差が少なくなるようにと、アクチュエータに
与えることになるトルク電流を更新することになる。
【0090】図18に、予測ニューラルネットワーク4
2に対応付けて備えられる緩和アルゴリズム実行機構の
実行する処理フローの一実施例を図示する。すなわち、
この実行機構は、認識ニューラルネットワーク40の出
力する観測物体の姿勢情報と、適当なトルク電流の初期
値とが予測ニューラルネットワーク42に入力される
と、誤差算出機構43に従って、観測物体の目標姿勢と
予測ニューラルネットワーク42の出力する観測物体の
姿勢との誤差を得て、この誤差を用いて緩和アルゴリズ
ムを実行していくことで、この誤差が許容誤差に収まる
ようになるトルク電流を求めていくよう処理するもので
ある。
【0091】図19及び図20に、図15に示した装置
構成を採る能動的センシング装置2の実行する処理フロ
ーの一実施例を図示する。次に、この処理フローについ
て説明する。
【0092】能動的センシング装置2は、目標値として
観測物体の姿勢(θo ' ,φo ' )が与えられると、こ
の目標姿勢から観測物体を観測していくために、図19
の処理フローに示すように、先ず最初に、ステップ1
で、観測物体の姿勢情報の初期値を認識ニューラルネッ
トワーク40の入力値として設定し、次に、ステップ2
で、入力値として設定した姿勢情報を認識ニューラルネ
ットワーク40に入力する。続いて、ステップ3で、ス
テップ2の入力処理に応答して認識ニューラルネットワ
ーク40から出力されてくるマーカ画像データを収集
し、続くステップ4で、誤差算出機構41に従って、ス
テップ3で収集したマーカ画像データと、実際にテレビ
カメラの撮影するマーカ画像データとの間の誤差を計算
する。
【0093】続いて、ステップ5で、ステップ4で算出
した誤差が許容誤差以内に収まるか否かということと、
許容誤差以内に収まらなくても、認識ニューラルネット
ワーク40の出力するマーカ画像データが収束してしま
ったか否かということを判断する。このステップ5で、
許容誤差以内に収まらず、かつ、非収束であると判断す
るときには、ステップ6に進んで、認識ニューラルネッ
トワーク40に対応付けて備えられる上述の緩和アルゴ
リズム実行機構を起動することで緩和アルゴリズムを実
行し、続くステップ7で、この緩和アルゴリズムの実行
結果に従って認識ニューラルネットワーク40に入力さ
れる姿勢情報を更新して、認識ニューラルネットワーク
40の入力値として設定してからステップ2に戻ってい
く。
【0094】このようにして、ステップ2ないしステッ
プ7の処理を繰り返していくことで、ステップ5で、ス
テップ4で算出した誤差が許容誤差以内に収まると判断
するか、認識ニューラルネットワーク40の出力するマ
ーカ画像データが収束してしまったことを判断すると、
ステップ8に進んで、認識ニューラルネットワーク40
の出力する姿勢情報を予測ニューラルネットワーク42
に入力する。
【0095】続いて、図20の処理フローのステップ9
に進んで、カメラ制御装置に出力するトルク電流の初期
値を設定して、この設定したトルク電流を予測ニューラ
ルネットワーク42の入力値として設定する。続いて、
ステップ10で、入力値として設定したトルク電流を予
測ニューラルネットワーク42に入力し、続くステップ
11で、ステップ8/ステップ10の入力処理に応答し
て予測ニューラルネットワーク42から出力されてくる
予測姿勢情報を収集する。
【0096】続いて、ステップ12で、誤差算出機構4
3に従って、観測物体の目標姿勢情報と、ステップ11
で収集した予測姿勢情報との間の誤差を計算し、続くス
テップ13で、この算出した誤差が許容誤差以内に収ま
るか否かを判断して、収まると判断するときには、目標
姿勢から観測物体を観測することが実現できたことを意
味するので、ステップ14に進んで、予測ニューラルネ
ットワーク42の入力値として設定されたトルク電流を
カメラ制御装置に出力して処理を終了する。一方、収ま
らないと判断するときには、ステップ15に進んで、予
測ニューラルネットワーク42に対応付けて備えられる
上述の緩和アルゴリズム実行機構を起動することで緩和
アルゴリズムを実行し、続くステップ16で、この緩和
アルゴリズムの実行結果に従って予測ニューラルネット
ワーク42に入力されるトルク電流を更新して、予測ニ
ューラルネットワーク42の入力値として設定する。
【0097】続いて、ステップ17で、予測ニューラル
ネットワーク42の出力する予測姿勢情報が収束してし
まったか否かを判断して、いまだ収束していないと判断
するときには、ステップ10に戻っていくことで目標姿
勢への制御を実行していく。一方、ステップ17で、予
測ニューラルネットワーク42の出力する予測姿勢情報
が収束してしまったことを判断するときには、ステップ
18に進んで、予測ニューラルネットワーク42の入力
値として設定されたトルク電流をカメラ制御装置に出力
し、続くステップ19で、予測ニューラルネットワーク
42の出力する予測姿勢情報を認識ニューラルネットワ
ーク40の入力値として設定してから、図19の処理フ
ローのステップ2に戻っていくことで、目標姿勢への制
御を実行していく。
【0098】このようにして、本発明の能動的センシン
グ装置2を用いることで、認識と行動とを並列的・協調
的に行うアクティブセンシングを実現するときにあっ
て、行動に伴う認識結果の予測情報を利用しつつ目標と
する認識結果の獲得を実現する行動を生成していく構成
を採ることから、認識率の向上と認識の高速性とを実現
することができるようになる。
【0099】次に、図14で説明した観測システムに用
いた場合の本発明の能動的センシング装置2の有効性に
ついて検証したシミュレーションについて説明する。こ
のシミュレーションに用いた能動的センシング装置2
は、図15に示した装置構成を採るものであるが、シミ
ュレーションを簡単なものとするために、予測ニューラ
ルネットワーク42の代わりに、 θs (t+1)=θs (t)+Δθa φs (t+1)=φs (t)+Δφa という予測制御機能を持つもので行った。また、認識ニ
ューラルネットワーク40の重み値の学習は、(θ0,φ
o )が各々30度間隔で生成した72種類の学習信号を
用いて行い、姿勢認識の正解の判定基準として、誤差が
3.75度以内に収まるか否かを用いた。
【0100】図21(a)に示すシミュレーションデー
タは、横軸が運動回数であり、縦軸が認識率である。そ
して、図21(b)に示すシミュレーションデータは、
横軸が運動回数であり、縦軸が緩和アルゴリズムの学習
回数である。ここで、図中、「○」は、7.5 度間隔で選
んだシミュレーションデータの中の学習信号として採用
したものの結果を表しており、「●」は、7.5 度間隔で
選んだシミュレーションデータの中の学習信号として採
用しなかったものの結果を表しており、「×」は、4点
のマーカの内の1点を隠した場合の結果を表している。
【0101】このシミュレーション結果から分かるよう
に、本発明の能動的センシング装置2を用いると、極め
て少ない運動回数でもって正解の認識を実現できるよう
になるとともに、観測物体が不完全な状態になっていて
も極めて高い正解率の認識を実現できるようになるので
ある。
【0102】
【発明の効果】以上説明したように、本発明の制御装置
によれば、逆運動学演算や逆ヤコビ行列演算を用いるこ
となく、目標制御量を実現する操作量を決定することが
できるようになるので、制御対象に制約条件を与えるこ
となく操作量を決定できるようになるとともに、冗長度
の高い制御対象や非線形な制御対象に対しても簡単に操
作量を決定できるようになる。
【0103】そして、本発明の能動的センシング装置に
よれば、観測対象を観測することで観測センシング情報
を検出する検出部と、動作指令情報に従って検出部を駆
動する操作部とを備えることで、認識と行動とを並列的
・協調的に行うアクティブセンシングを実現するときに
あって、行動に伴う認識結果の予測情報を利用しつつ目
標とする認識結果の獲得を実現する行動を生成していく
構成を採ることから、認識率の向上と認識の高速性とを
実現することができるようになる。
【図面の簡単な説明】
【図1】本発明の原理構成図である。
【図2】本発明の原理構成図である。
【図3】制御対象のマニピュレータの説明図である。
【図4】制御装置の装置構成の一実施例である。
【図5】データ変換機構の一実施例である。
【図6】基本ユニットの演算処理の説明図である。
【図7】データ変換機構の一実施例である。
【図8】緩和アルゴリズムの説明図である。
【図9】制御装置の実行する処理フローの一実施例であ
る。
【図10】制御対象のマニピュレータの説明図である。
【図11】制御装置の装置構成の一実施例である。
【図12】データ変換機構の一実施例である。
【図13】制御装置の実行する処理フローの一実施例で
ある。
【図14】観測システムの説明図である。
【図15】能動的センシング装置の装置構成の一実施例
である。
【図16】緩和アルゴリズム実行機構の実行する処理フ
ローである。
【図17】予測ニューラルネットワークの詳細構成図で
ある。
【図18】緩和アルゴリズム実行機構の実行する処理フ
ローである。
【図19】能動的センシング装置の実行する処理フロー
の一実施例である。
【図20】能動的センシング装置の実行する処理フロー
の一実施例である。
【図21】シミュレーションデータの説明図である。
【図22】フィードバック制御系のブロック構成図であ
る。
【図23】逆運動学演算を用いるフィードバック制御系
の説明図である。
【図24】逆ヤコビ行列演算を用いるフィードバック制
御系の説明図である。
【図25】従来のセンシング技術の説明図である。
【図26】アクティブセンシング技術の説明図である。
【図27】アクティブセンシング技術の説明図である。
【図28】アクティブセンシング技術の説明図である。
【符号の説明】
1 制御装置 2 能動的センシング装置 10 変換部 11 差分部 12 算出部 13 出力部 20 検出部 21 操作部 22 認識部 23 第1の算出部 24 第1のラッチ部 25 第1の差分部 26 予測部 27 第2の算出部 28 第2のラッチ部 29 第2の差分部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 長田 茂美 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 制御対象の制御量を目標制御量となるよ
    うにと制御するときに必要となる操作量を決定していく
    構成を採る制御装置において、 制御対象の示す操作量と制御量との間の対応関係を写像
    する構成を採って、操作量を入力として、該入力に対応
    付けられる制御量を出力する変換部(10)と、 上記変換部(10)に操作初期量が入力されるときに、目標
    制御量と上記変換部(10)の出力する制御量との差分量か
    ら、両者が一致するようになる該操作初期量に対しての
    操作修正量を算出する算出部(12)と、 操作初期量と上記算出部(12)の算出する操作修正量との
    加算量を制御対象への操作量として出力する出力部(13)
    とを備えることを、 特徴とする制御装置。
  2. 【請求項2】 制御対象の制御量を目標制御量となるよ
    うにと制御するときに必要となる操作量を決定していく
    構成を採る制御装置において、 制御対象の示す操作量及び状態量と制御量との間の対応
    関係を写像する構成を採って、操作量及び状態量を入力
    として、該入力に対応付けられる制御量を出力する変換
    部(10)と、 上記変換部(10)に操作初期量と制御対象の状態量とが入
    力されるときに、目標制御量と上記変換部(10)の出力す
    る制御量との差分量から、両者が一致するようになる該
    操作初期量に対しての操作修正量を算出する算出部(12)
    と、 操作初期量と上記算出部(12)の算出する操作修正量との
    加算量を制御対象への操作量として出力する出力部(13)
    とを備えることを、 特徴とする制御装置。
  3. 【請求項3】 請求項1又は2記載の制御装置におい
    て、 算出部(12)は、変換部(10)に入力される複数の操作量種
    別の一部又は全てに対して制限量を課しつつ操作修正量
    を算出していくよう処理することを、 特徴とする制御装置。
  4. 【請求項4】 請求項1、2又は3記載の制御装置にお
    いて、 算出部(12)は、制限条件に従って、制御量と目標制御量
    との一致を実現する操作修正量が得られないときには、
    該制限条件の許容する操作修正量を算出される操作修正
    量として採用していくよう処理することを、 特徴とする制御装置。
  5. 【請求項5】 請求項4記載の制御装置において、 変換部(10)に入力される操作初期量として、出力部(13)
    が前回出力した操作量を用いるよう構成されることを、 特徴とする制御装置。
  6. 【請求項6】 請求項1、2、3、4又は5記載の制御
    装置において、 変換部(10)は、ニューラルネットワークから構成される
    ことを、 特徴とする制御装置。
  7. 【請求項7】 請求項6記載の制御装置において、 算出部(12)は、緩和アルゴリズムに従って操作修正量を
    算出していくよう処理することを、 特徴とする制御装置。
  8. 【請求項8】 請求項1、2、3、4、5、6又は7記
    載の制御装置において、 算出部(12)は、変換部(10)に入力される複数の操作量種
    別の内の一部を操作修正量の算出対象としていくよう処
    理することを、 特徴とする制御装置。
  9. 【請求項9】 観測対象を観測することで観測センシン
    グ情報を検出する検出部(20)と、動作指令情報に従って
    該検出部(20)を駆動する操作部(21)とを備える観測シス
    テムにおいて、 観測対象の状態情報と、上記検出部(20)の検出する観測
    センシング情報との間の対応関係を写像する構成を採っ
    て、観測対象の状態情報を入力として、該入力に対応付
    けられる観測センシング情報を出力する認識部(22)と、 上記認識部(22)に状態情報が入力されるときに、上記認
    識部(22)の出力する観測センシング情報と、上記検出部
    (20)の検出する観測センシング情報との差分情報から、
    両者が一致するようになる新たな状態情報を算出する第
    1の算出部(23)と、 観測対象の状態情報/上記操作部(21)への動作指令情報
    と、該動作指令情報に従って変更される観測対象の状態
    情報との間の対応関係を写像する構成を採って、上記第
    1の算出部(23)の算出する状態情報と、上記操作部(21)
    への動作指令情報とを入力として、該入力に対応付けら
    れる観測対象の状態情報を出力する予測部(26)と、 上記予測部(26)に状態情報/動作指令情報が入力される
    ときに、上記予測部(26)の出力する状態情報と目標状態
    情報との差分情報から、両者が一致するようになる新た
    な動作指令情報を算出して上記操作部(21)への動作指令
    情報を更新する第2の算出部(27)とを備え、 かつ、上記予測部(26)の出力する状態情報を上記認識部
    (22)に入力していく構成を採ることを、 特徴とする能動的センシング装置。
  10. 【請求項10】 請求項9記載の能動的センシング装置
    において、 第2の算出部(27)は、複数の動作指令情報種別の一部又
    は全てに対して制限情報を課しつつ新たな動作指令情報
    を算出していくよう処理することを、 特徴とする能動的センシング装置。
  11. 【請求項11】 請求項9又は10記載の能動的センシ
    ング装置において、 第2の算出部(27)は、制限条件に従って、状態情報と目
    標状態情報との一致を実現する動作指令情報が得られな
    いときには、該制限条件の許容する動作指令情報を算出
    される動作指令情報として採用していくよう処理するこ
    とを、 特徴とする能動的センシング装置。
  12. 【請求項12】 請求項11記載の能動的センシング装
    置において、 予測部(26)に入力される動作指令情報の初期情報とし
    て、第2の算出部(27)が前回採用した動作指令情報を用
    いるよう構成されることを、 特徴とする能動的センシング装置。
  13. 【請求項13】 請求項9、10、11又は12記載の
    能動的センシング装置において、 認識部(22)は、ニューラルネットワークから構成される
    ことを、 特徴とする能動的センシング装置。
  14. 【請求項14】 請求項13記載の能動的センシング装
    置において、 第1の算出部(23)は、緩和アルゴリズムに従って新たな
    状態情報を算出していくよう処理することを、 特徴とする能動的センシング装置。
  15. 【請求項15】 請求項9、10、11、12、13又
    は14記載の能動的センシング装置において、 第1の算出部(23)は、認識部(22)に入力される複数の状
    態情報種別の内の一部を状態情報の算出対象としていく
    よう処理することを、 特徴とする能動的センシング装置。
  16. 【請求項16】 請求項9、10、11又は12記載の
    能動的センシング装置において、 予測部(26)は、ニューラルネットワークから構成される
    ことを、 特徴とする能動的センシング装置。
  17. 【請求項17】 請求項16記載の能動的センシング装
    置において、 第2の算出部(27)は、緩和アルゴリズムに従って新たな
    動作指令情報を算出していくよう処理することを、 特徴とする能動的センシング装置。
  18. 【請求項18】 請求項9、10、11、12、16又
    は17記載の能動的センシング装置において、 第2の算出部(27)は、予測部(26)に入力される複数の動
    作指令情報種別の内の一部を動作指令情報の算出対象と
    していくよう処理することを、 特徴とする能動的センシング装置。
JP5104173A 1993-04-30 1993-04-30 制御装置と能動的センシング装置 Withdrawn JPH06314103A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP5104173A JPH06314103A (ja) 1993-04-30 1993-04-30 制御装置と能動的センシング装置
US08/233,423 US5579442A (en) 1993-04-30 1994-04-28 Adaptive kinematic control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5104173A JPH06314103A (ja) 1993-04-30 1993-04-30 制御装置と能動的センシング装置

Publications (1)

Publication Number Publication Date
JPH06314103A true JPH06314103A (ja) 1994-11-08

Family

ID=14373641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5104173A Withdrawn JPH06314103A (ja) 1993-04-30 1993-04-30 制御装置と能動的センシング装置

Country Status (2)

Country Link
US (1) US5579442A (ja)
JP (1) JPH06314103A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019508273A (ja) * 2016-03-03 2019-03-28 グーグル エルエルシー ロボットの把持のための深層機械学習方法および装置
JP2019509905A (ja) * 2016-03-03 2019-04-11 グーグル エルエルシー ロボットの把持のための深層機械学習方法および装置
JP2019516568A (ja) * 2016-05-20 2019-06-20 グーグル エルエルシー 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置
JP2019093464A (ja) * 2017-11-21 2019-06-20 トヨタ自動車株式会社 パワーアシスト装置
WO2021024552A1 (ja) * 2019-08-05 2021-02-11 株式会社片岡製作所 レーザ処理装置用の機械学習システム及び機械学習方法
US11331794B2 (en) * 2017-05-09 2022-05-17 Institute Of Computing Technology, Chinese Academy Of Sciences Inverse kinematics solution system for use with robots

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6000827A (en) * 1993-09-10 1999-12-14 Fujitsu Limited System identifying device and adaptive learning control device
DE4440859C2 (de) * 1994-11-15 1998-08-06 Alexander Kaske Verfahren und Vorrichtung zum Steuern eines autonom explorierenden Roboters
US6445964B1 (en) 1997-08-04 2002-09-03 Harris Corporation Virtual reality simulation-based training of telekinegenesis system for training sequential kinematic behavior of automated kinematic machine
US6944584B1 (en) 1999-04-16 2005-09-13 Brooks Automation, Inc. System and method for control and simulation
US6456901B1 (en) 2001-04-20 2002-09-24 Univ Michigan Hybrid robot motion task level control system
WO2004030870A1 (ja) * 2002-10-01 2004-04-15 Sony Corporation ロボット装置及びロボット装置の制御方法
JP4093076B2 (ja) * 2003-02-19 2008-05-28 富士重工業株式会社 車両運動モデルの生成装置および車両運動モデルの生成方法
US8641664B2 (en) 2008-03-27 2014-02-04 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system with dynamic response
US8343096B2 (en) 2008-03-27 2013-01-01 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system
US9241768B2 (en) * 2008-03-27 2016-01-26 St. Jude Medical, Atrial Fibrillation Division, Inc. Intelligent input device controller for a robotic catheter system
US8317744B2 (en) * 2008-03-27 2012-11-27 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter manipulator assembly
US8317745B2 (en) * 2008-03-27 2012-11-27 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter rotatable device cartridge
US8684962B2 (en) * 2008-03-27 2014-04-01 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter device cartridge
US20090248042A1 (en) * 2008-03-27 2009-10-01 Kirschenman Mark B Model catheter input device
US9161817B2 (en) * 2008-03-27 2015-10-20 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system
US8641663B2 (en) 2008-03-27 2014-02-04 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic catheter system input device
JP5083194B2 (ja) * 2008-12-18 2012-11-28 株式会社デンソーウェーブ ロボットのキャリブレーション方法及びロボットの制御装置
JP5773884B2 (ja) * 2008-12-31 2015-09-02 セント・ジュード・メディカル・エイトリアル・フィブリレーション・ディヴィジョン・インコーポレーテッド ロボットカテーテルシステム入力装置
US9439736B2 (en) 2009-07-22 2016-09-13 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for controlling a remote medical device guidance system in three-dimensions using gestures
US9330497B2 (en) 2011-08-12 2016-05-03 St. Jude Medical, Atrial Fibrillation Division, Inc. User interface devices for electrophysiology lab diagnostic and therapeutic equipment
US9888973B2 (en) 2010-03-31 2018-02-13 St. Jude Medical, Atrial Fibrillation Division, Inc. Intuitive user interface control for remote catheter navigation and 3D mapping and visualization systems
KR101743926B1 (ko) * 2010-09-20 2017-06-08 삼성전자주식회사 로봇 및 그 제어방법
WO2013014740A1 (ja) * 2011-07-25 2013-01-31 三菱電機株式会社 システム構築支援装置およびシステム構成図作成方法
WO2014170919A1 (en) * 2013-04-15 2014-10-23 Vea S.R.L. Method of controlling a forging system and relative system
GB2562122B (en) * 2017-05-05 2022-10-19 Bamford Excavators Ltd Training machine
US11549239B2 (en) 2017-05-05 2023-01-10 J.C. Bamford Excavators Limited Training machine
GB2562121B (en) * 2017-05-05 2022-10-12 Bamford Excavators Ltd Working machine
US10769448B2 (en) * 2017-05-31 2020-09-08 Panasonic I-Pro Sensing Solutions Co., Ltd. Surveillance system and surveillance method
CN108568820A (zh) * 2018-04-27 2018-09-25 深圳市商汤科技有限公司 机器人控制方法及装置、电子设备和存储介质
US20220125524A1 (en) * 2019-02-28 2022-04-28 Koninklijke Philips N.V. Feedforward continuous positioning control of end-effectors
CN110253581A (zh) * 2019-06-25 2019-09-20 华北水利水电大学 一种基于视觉识别的辅助抓取方法
JP7555076B2 (ja) * 2020-02-03 2024-09-24 国立大学法人東京工業大学 ロボット制御システム、ロボットシステム、操作システム、ロボット制御方法、およびロボット制御プログラム
DE102020118805A1 (de) * 2020-07-16 2022-01-20 Dr. Ing. H.C. F. Porsche Aktiengesellschaft System und Verfahren zum autonomen Konstruieren und/oder Designen von zumindest einer Komponente für ein Bauteil
GB2598758B (en) 2020-09-10 2023-03-29 Toshiba Kk Task performing agent systems and methods
CN113021408B (zh) * 2021-03-23 2022-08-05 中联重科股份有限公司 补偿臂架挠度的方法和装置及控制臂架的方法和装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4874963A (en) * 1988-02-11 1989-10-17 Bell Communications Research, Inc. Neuromorphic learning networks
JP2676397B2 (ja) * 1989-01-05 1997-11-12 株式会社エイ・ティ・アール視聴覚機構研究所 動的システムの運動軌道生成方法
US5276771A (en) * 1991-12-27 1994-01-04 R & D Associates Rapidly converging projective neural network
US5294873A (en) * 1992-10-27 1994-03-15 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Kinematic functions for redundancy resolution using configuration control

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019509905A (ja) * 2016-03-03 2019-04-11 グーグル エルエルシー ロボットの把持のための深層機械学習方法および装置
JP2019508273A (ja) * 2016-03-03 2019-03-28 グーグル エルエルシー ロボットの把持のための深層機械学習方法および装置
JP2019217632A (ja) * 2016-03-03 2019-12-26 グーグル エルエルシー ロボットの把持のための深層機械学習方法および装置
US10639792B2 (en) 2016-03-03 2020-05-05 Google Llc Deep machine learning methods and apparatus for robotic grasping
US11548145B2 (en) 2016-03-03 2023-01-10 Google Llc Deep machine learning methods and apparatus for robotic grasping
US10946515B2 (en) 2016-03-03 2021-03-16 Google Llc Deep machine learning methods and apparatus for robotic grasping
US11045949B2 (en) 2016-03-03 2021-06-29 Google Llc Deep machine learning methods and apparatus for robotic grasping
US11173599B2 (en) 2016-05-20 2021-11-16 Google Llc Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment
JP2019516568A (ja) * 2016-05-20 2019-06-20 グーグル エルエルシー 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置
JP2021175592A (ja) * 2016-05-20 2021-11-04 グーグル エルエルシーGoogle LLC 物体を取り込む画像に基づき、環境内の将来のロボット運動に関するパラメータに基づいて、ロボットの環境内の物体の動きを予測することに関する機械学習の方法および装置
US11331794B2 (en) * 2017-05-09 2022-05-17 Institute Of Computing Technology, Chinese Academy Of Sciences Inverse kinematics solution system for use with robots
JP2019093464A (ja) * 2017-11-21 2019-06-20 トヨタ自動車株式会社 パワーアシスト装置
JP2021023965A (ja) * 2019-08-05 2021-02-22 株式会社片岡製作所 レーザ処理装置用の機械学習システム及び機械学習方法
WO2021024552A1 (ja) * 2019-08-05 2021-02-11 株式会社片岡製作所 レーザ処理装置用の機械学習システム及び機械学習方法

Also Published As

Publication number Publication date
US5579442A (en) 1996-11-26

Similar Documents

Publication Publication Date Title
JPH06314103A (ja) 制御装置と能動的センシング装置
US11529733B2 (en) Method and system for robot action imitation learning in three-dimensional space
Wilson et al. Relative end-effector control using cartesian position based visual servoing
US9862090B2 (en) Surrogate: a body-dexterous mobile manipulation robot with a tracked base
Liu et al. Uncalibrated visual servoing of robots using a depth-independent interaction matrix
US8467904B2 (en) Reconstruction, retargetting, tracking, and estimation of pose of articulated systems
JP5210883B2 (ja) 物理的な多関節システムの部位の動作を制御する、コンピュータを使用する方法、物理的な多関節システムの部位の動作を制御するシステム、人間とは別体の物理的多関節システムに前記人間の動作を追従させる、コンピュータを用いた方法、人間とは別体の物理的多関節システムによって前記人間の動作を追従させるシステム、及び、ソースシステムとは別体の物理的多関節システムの部位の動きを制御する、コンピュータを用いた方法
CN115122325B (zh) 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法
US11975451B2 (en) Simulation-in-the-loop tuning of robot parameters for system modeling and control
CN102814814B (zh) 一种双臂机器人基于Kinect的人机交互方法
CN110385694A (zh) 机器人的动作示教装置、机器人系统以及机器人控制装置
WO2018107851A1 (zh) 冗余机械臂的控制方法及装置
EP4175795B1 (en) Transfer between tasks in different domains
CN117901090B (zh) 一种持镜机器人视觉伺服方法及系统
Aleotti et al. Position teaching of a robot arm by demonstration with a wearable input device
JP2024088606A (ja) 逆強化学習による人間スキルの学習
Grasshoff et al. 7dof hand and arm tracking for teleoperation of anthropomorphic robots
EP2359989B1 (en) Robot control with bootstrapping inverse kinematics
JP2629291B2 (ja) マニピュレータ学習制御方法
CN120422230A (zh) 机器人遥操作控制方法及系统、介质、设备和程序产品
Chen et al. Learning trajectories for visual-inertial system calibration via model-based heuristic deep reinforcement learning
Agba SeaMaster: An ROV-manipulator system simulator
CN118650634A (zh) 一种基于深度学习的多机器人柔性物体伺服方法
US20260077487A1 (en) Action abstraction controller for fully actuated robotic manipulators
Jagersand et al. Adaptive Differential Visual Feedback for Uncalibrated Hand-Eye Coordination and Motor Control.

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000704