JPH036779A - 3次元位置情報抽出処理方式 - Google Patents
3次元位置情報抽出処理方式Info
- Publication number
- JPH036779A JPH036779A JP1142828A JP14282889A JPH036779A JP H036779 A JPH036779 A JP H036779A JP 1142828 A JP1142828 A JP 1142828A JP 14282889 A JP14282889 A JP 14282889A JP H036779 A JPH036779 A JP H036779A
- Authority
- JP
- Japan
- Prior art keywords
- movement
- position information
- frame images
- feature points
- dimensional position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野]
本発明は、物体を1台の画像入力装置で観測することに
より行う3次元位置情報抽出処理方式に関するものであ
る。
より行う3次元位置情報抽出処理方式に関するものであ
る。
1台の画像入力装置で観測して得られる1連のフレーム
画像から物体上の特徴点についての3次元の位置情報を
抽出する従来の方式においては物体に対して前もって定
めた運動を定められた移動量だけ施す物体移動手段を設
け、物体移動手段で移動する物体の移動前後を観測した
2つの入力画像からステレオ画像を構成し、ステレ第3
次元位置計測により3次元位置情報を抽出するものであ
った。
画像から物体上の特徴点についての3次元の位置情報を
抽出する従来の方式においては物体に対して前もって定
めた運動を定められた移動量だけ施す物体移動手段を設
け、物体移動手段で移動する物体の移動前後を観測した
2つの入力画像からステレオ画像を構成し、ステレ第3
次元位置計測により3次元位置情報を抽出するものであ
った。
従って、前もって定めた運動を定められた移動量だけ物
体に施すか、または、移動量を手作業に、より計測する
必要があり、3次元位置情報を抽出するのに時間と手間
とがかかるという問題点があった。
体に施すか、または、移動量を手作業に、より計測する
必要があり、3次元位置情報を抽出するのに時間と手間
とがかかるという問題点があった。
本発明は、このような従来の問題点を解決するために、
物体の移動量については制限を設けずに前もって定めた
N通りの移動形態の中の1つの運動を行っている物体を
観測することにより、物体の3次元の位置情報をN昌に
抽出できる3次元位置情報抽出処理力式を提供すること
にある。
物体の移動量については制限を設けずに前もって定めた
N通りの移動形態の中の1つの運動を行っている物体を
観測することにより、物体の3次元の位置情報をN昌に
抽出できる3次元位置情報抽出処理力式を提供すること
にある。
本発明の3次元位置情報抽出処理力式においては、1台
の画像入力装置で観測して得られる1連のフレーム画像
中の2つのフレーム画像間における物体の3次元的移動
が、予め記憶しておいた物体のN通りの特定の移動形態
の中の1つであるかどうかを、これら2つのフレーム画
像上の特徴点の座標を用いて判別する移動形態判別手段
を有していることに特徴がある。
の画像入力装置で観測して得られる1連のフレーム画像
中の2つのフレーム画像間における物体の3次元的移動
が、予め記憶しておいた物体のN通りの特定の移動形態
の中の1つであるかどうかを、これら2つのフレーム画
像上の特徴点の座標を用いて判別する移動形態判別手段
を有していることに特徴がある。
本発明の3次元位置情報抽出処理力式は、物体が予め記
憶しておいたN通りの移動形態の中の1つの移動形態に
従った移動を行ったかどうかを判別する移動形態判別手
段を有している点で従来の方式と異なる。
憶しておいたN通りの移動形態の中の1つの移動形態に
従った移動を行ったかどうかを判別する移動形態判別手
段を有している点で従来の方式と異なる。
〔実施例]
以下8本発明の実施例を1図面に基づいて詳細に説明す
る。第1図は本寅施例における3次元位置情報抽出処理
力式の構成図を示すものであって。
る。第1図は本寅施例における3次元位置情報抽出処理
力式の構成図を示すものであって。
特徴点のうちの1つを基準点とし4その基準点の画像入
力装置までの距離を与える場合の実施例として示してい
る。同図において、101は画像入力部、102は特徴
点抽出部、103は移動形態判別部。
力装置までの距離を与える場合の実施例として示してい
る。同図において、101は画像入力部、102は特徴
点抽出部、103は移動形態判別部。
104は基準点距離付与部、105は位置情報抽出部で
ある。
ある。
画像入力部101は、テレビカメラ等の画像入力装置に
より運動を行っている物体を観測し、観測して得られる
1連のフレーム画像中の2つのフレーム画像を特徴点抽
出部102に出力する。特徴点抽出部102は2画像入
力部101より出力された2つのフレーム画像から少な
くとも2つ以上の特徴点を抽出し、抽出した特徴点の2
つのフレーム画像上の座標を移動形態判別部103及び
位置情報抽出部】05に出力する。2つのフレーム画像
からの特徴点の抽出は、例えば、物体の形状や表面の色
が局所的に急激な変化をする点を画像処理により抽出し
、物体上で同一の点であるものを対応付け。
より運動を行っている物体を観測し、観測して得られる
1連のフレーム画像中の2つのフレーム画像を特徴点抽
出部102に出力する。特徴点抽出部102は2画像入
力部101より出力された2つのフレーム画像から少な
くとも2つ以上の特徴点を抽出し、抽出した特徴点の2
つのフレーム画像上の座標を移動形態判別部103及び
位置情報抽出部】05に出力する。2つのフレーム画像
からの特徴点の抽出は、例えば、物体の形状や表面の色
が局所的に急激な変化をする点を画像処理により抽出し
、物体上で同一の点であるものを対応付け。
対応付けられた点を特徴点とする。移動形態判別部+0
3は、物体のN通りの特定の移動形態を記憶しており、
特徴点抽出部102から出力される2つのフレーム画像
上の特徴点の座標を用いて、これらの2つのフレーム画
像間での物体の3次元的移動が記憶しておいた物体のN
通りの特定の移動形態の中の1つであるかどうかを判別
し位置情報の抽出を実行するか否かの制御信号を位置情
報抽出部+05に出力する。N通りの移動形態の中の1
つの移動をjテっだと判別された場合には1位置情報の
抽出を実行する旨の制御信号を出力するとともにN通り
の移動形態の中のどの移動形態であるかの信号を位置情
報抽出部105に出力し、N通りの移動形態の中に含ま
れない移動を行ったと判別されたときには1位置情報の
抽出を実行しない旨の制御信号を位置情報抽出部105
に出力する。基準点距離付与部104は、特徴点の中の
1つの点を基準点とし、基準点から画像入力装置までの
距離を各特徴点の画像入力装置までの距離の基準として
与えるもので、特徴点間の位置関係のみ必要な場合は適
当な値を基準点の画像入力装置までの距離として与えれ
ばよい0位置情報抽出部105は、移動形態判別部10
3から出力される制御信号が位置情報抽出を実行する命
令である場合に、特徴点抽出部102から出力された特
徴点の2つのフレーム画像上の位置と、移動形態判別部
103から出力される移動形態と、基準点距離付与部1
04より出力された基準点の画像入力装置までの距離を
用いて2つのフレーム画像入力時における特徴点の3次
元位置情報を抽出して出力する。
3は、物体のN通りの特定の移動形態を記憶しており、
特徴点抽出部102から出力される2つのフレーム画像
上の特徴点の座標を用いて、これらの2つのフレーム画
像間での物体の3次元的移動が記憶しておいた物体のN
通りの特定の移動形態の中の1つであるかどうかを判別
し位置情報の抽出を実行するか否かの制御信号を位置情
報抽出部+05に出力する。N通りの移動形態の中の1
つの移動をjテっだと判別された場合には1位置情報の
抽出を実行する旨の制御信号を出力するとともにN通り
の移動形態の中のどの移動形態であるかの信号を位置情
報抽出部105に出力し、N通りの移動形態の中に含ま
れない移動を行ったと判別されたときには1位置情報の
抽出を実行しない旨の制御信号を位置情報抽出部105
に出力する。基準点距離付与部104は、特徴点の中の
1つの点を基準点とし、基準点から画像入力装置までの
距離を各特徴点の画像入力装置までの距離の基準として
与えるもので、特徴点間の位置関係のみ必要な場合は適
当な値を基準点の画像入力装置までの距離として与えれ
ばよい0位置情報抽出部105は、移動形態判別部10
3から出力される制御信号が位置情報抽出を実行する命
令である場合に、特徴点抽出部102から出力された特
徴点の2つのフレーム画像上の位置と、移動形態判別部
103から出力される移動形態と、基準点距離付与部1
04より出力された基準点の画像入力装置までの距離を
用いて2つのフレーム画像入力時における特徴点の3次
元位置情報を抽出して出力する。
移動形態判別部103の1実施例を以下に説明する。
予め記憶しておいたN通りの特定の移動形態のうちのに
番目の特定の移動形態に従って移動を行っている物体を
観測して得られる1連のフレーム画像において、当該1
連のフレーム画像中の2つのフレーム画像から抽出した
特徴点のフレーム画像上の座標から、これら2つのフレ
ーム画像間における物体の回転運動成分の回転角と並進
運動成分の並進移動量との3次元的移動情報を抽出する
ために必要な特徴点の数をn5とする。
番目の特定の移動形態に従って移動を行っている物体を
観測して得られる1連のフレーム画像において、当該1
連のフレーム画像中の2つのフレーム画像から抽出した
特徴点のフレーム画像上の座標から、これら2つのフレ
ーム画像間における物体の回転運動成分の回転角と並進
運動成分の並進移動量との3次元的移動情報を抽出する
ために必要な特徴点の数をn5とする。
第2図は移動形態判別部103での判別方法の処理手順
を示す、同図において、処理201は特徴点抽出部10
2で抽出された特徴点の数の計数を行う。
を示す、同図において、処理201は特徴点抽出部10
2で抽出された特徴点の数の計数を行う。
抽出した特徴点の数をMとする。処理202では。
画像入力部101から出力された2つのフレーム画像間
での物体の移動形態が予め記憶しておいたN通りの移動
形態の中のに番目の移動形態であるとしてM個の特徴点
からn0個の特徴点をとる組合わせの数、lcn++個
について、これら2つのフレーム画像間での移動情報を
後述する方法で抽出する。処理203では、処理202
で抽出したHCnk個の抽出した移動情報が互いに一致
した場合には2つのフレーム画像間での移動形態かに番
目の移動形態であると判別する。第2図に示すようにこ
れら処理202と203とによるに番目の移動形態であ
るかどうかを判別する処理は、 K、1からに=11ま
での移動形態に応じたN種の処理202及び203を各
々行う。処理204では、k・1からに=lJまでの処
理203によりに番目の移動形態であると判別された場
合の数を調べる。処理204で調べた場合の数が0のと
きは1画像入力部101から出力される2つのフレーム
画像間での物体の3次元的移動形態が予め記憶しておい
た移動形態の中のどれにも当てはまらないとして2処理
205により位置19報抽出を実行しない旨の制御信号
を位置情報抽出部105に出力する。処理204で調べ
た場合の数が1以上のときは9位置情報の抽出を実行す
る旨の制御信号を処理205により出力するとともに、
2つのフレーム画像間での物体の移動に該当する移動形
態を表す信号を処理206により位置情報抽出部105
に出力する0画像入力部101から出力される2つのフ
レーム画像間での物体の3次元的移動形態が予め記憶し
ておいた移動形態の中の2つ以上の移動形態に該当して
いる場合には、それらの移動形態の中のどのし動形態で
あるとしてもよいので1例えば、予め記憶しておく移動
形態に番号を付けておき、該当している2つ以上の移動
形態の中で最も小さい番号の付いた移動形態を2つのフ
レーム画像間での物体の3次元的移動形態として該当す
る移動形態を1つに決定する。
での物体の移動形態が予め記憶しておいたN通りの移動
形態の中のに番目の移動形態であるとしてM個の特徴点
からn0個の特徴点をとる組合わせの数、lcn++個
について、これら2つのフレーム画像間での移動情報を
後述する方法で抽出する。処理203では、処理202
で抽出したHCnk個の抽出した移動情報が互いに一致
した場合には2つのフレーム画像間での移動形態かに番
目の移動形態であると判別する。第2図に示すようにこ
れら処理202と203とによるに番目の移動形態であ
るかどうかを判別する処理は、 K、1からに=11ま
での移動形態に応じたN種の処理202及び203を各
々行う。処理204では、k・1からに=lJまでの処
理203によりに番目の移動形態であると判別された場
合の数を調べる。処理204で調べた場合の数が0のと
きは1画像入力部101から出力される2つのフレーム
画像間での物体の3次元的移動形態が予め記憶しておい
た移動形態の中のどれにも当てはまらないとして2処理
205により位置19報抽出を実行しない旨の制御信号
を位置情報抽出部105に出力する。処理204で調べ
た場合の数が1以上のときは9位置情報の抽出を実行す
る旨の制御信号を処理205により出力するとともに、
2つのフレーム画像間での物体の移動に該当する移動形
態を表す信号を処理206により位置情報抽出部105
に出力する0画像入力部101から出力される2つのフ
レーム画像間での物体の3次元的移動形態が予め記憶し
ておいた移動形態の中の2つ以上の移動形態に該当して
いる場合には、それらの移動形態の中のどのし動形態で
あるとしてもよいので1例えば、予め記憶しておく移動
形態に番号を付けておき、該当している2つ以上の移動
形態の中で最も小さい番号の付いた移動形態を2つのフ
レーム画像間での物体の3次元的移動形態として該当す
る移動形態を1つに決定する。
次に、処理202での2つのフレーム画像間での物体の
移動情報抽出方法について説明する。予め記憶しておい
たに番目の移動形態が°°Y軸まわりの回転運動および
X方向とX方向の並進運動“の場合について、移動情報
としてY軸まわりの回転角およびX方向X方向の並進移
動量を抽出する方法を示す。
移動情報抽出方法について説明する。予め記憶しておい
たに番目の移動形態が°°Y軸まわりの回転運動および
X方向とX方向の並進運動“の場合について、移動情報
としてY軸まわりの回転角およびX方向X方向の並進移
動量を抽出する方法を示す。
カメラモデルを第3図に示す中心射影で表すとカメラレ
ンズの中心を原点、カメラの光軸をZ軸。
ンズの中心を原点、カメラの光軸をZ軸。
カメラの結像面の垂直方向をX軸とする直交座標系にお
いて、物体上の特徴点Pkの3次元位置(Xk 、
Yk 、 Zk ) L;!、 Pk ノアL、−
4画像上の位置を(Llk、Vk)、 カメラレンズの
中心からカメラの結像面までの距離をrとしてZk−Z
k (1
)で表せる。
いて、物体上の特徴点Pkの3次元位置(Xk 、
Yk 、 Zk ) L;!、 Pk ノアL、−
4画像上の位置を(Llk、Vk)、 カメラレンズの
中心からカメラの結像面までの距離をrとしてZk−Z
k (1
)で表せる。
第4図に示すように特徴点Pkの1番目とj番目との2
つのフレーム画像入力時における点をPik 、Pjk
(k−0,1,−、N−1、N :特徴点の数、
Pie、 PjOは基準点)、特徴点抽出部102か
ら出力される2つのフレーム画像上のこれらの特徴点の
座標値を(Uik、 Vik) 、 (Ujk、
Vjk)とする。
つのフレーム画像入力時における点をPik 、Pjk
(k−0,1,−、N−1、N :特徴点の数、
Pie、 PjOは基準点)、特徴点抽出部102か
ら出力される2つのフレーム画像上のこれらの特徴点の
座標値を(Uik、 Vik) 、 (Ujk、
Vjk)とする。
第4図において、i番目とj番目との2つのフレーム画
像間での物体がY軸まわりに回転角βの回転運動とX方
向及びX方向の並進運動を行っているとき次式が成立す
る。
像間での物体がY軸まわりに回転角βの回転運動とX方
向及びX方向の並進運動を行っているとき次式が成立す
る。
一ン −〉−一−−÷ −一−→0Pjk
−OPjO= R0Pik−OPiO(K≠0) (2) 並進移動ベクトル t= 0PjO0PiO(3)但
し か得られ、2つのフレーム画像間における物体の並進移
動量を1基準となる特徴点POの2つのフレーム画像上
の座標値(IJ、。、■、。)、 (Ui。。
−OPjO= R0Pik−OPiO(K≠0) (2) 並進移動ベクトル t= 0PjO0PiO(3)但
し か得られ、2つのフレーム画像間における物体の並進移
動量を1基準となる特徴点POの2つのフレーム画像上
の座標値(IJ、。、■、。)、 (Ui。。
■、。)を用いて式(5)により抽出できる。
2つのフレーム画像間における物体の回転角βは1式(
11を式(2)に代入し1式(4)を用いてZjkを消
去して。
11を式(2)に代入し1式(4)を用いてZjkを消
去して。
i番目とj番目との2つのフレーム画像入力時における
特徴点P ik、 P jkのY座標値は同しである
ことにより次式が成立する。
特徴点P ik、 P jkのY座標値は同しである
ことにより次式が成立する。
ZikVik = ZjkVjk
(4)式(1)を式(3)に代入し1式(4)を用
いてZjOを消去することにより。
(4)式(1)を式(3)に代入し1式(4)を用
いてZjOを消去することにより。
を導出し1式(6)からZikを消去するこ乙により。
回転角βは5基準となる特徴点POと他の2つの特徴点
Pk、PNの2つのフレーム画像上の座標値(Ul、、
V、。)、 (Uj。、■よ。)、 (Ui、。
Pk、PNの2つのフレーム画像上の座標値(Ul、、
V、。)、 (Uj。、■よ。)、 (Ui、。
V;k) 、 CUik、 Viw) 、 (U
rp、 Vil)(Uit= Vjj)を用いて式
(7)より求めることかできる。
rp、 Vil)(Uit= Vjj)を用いて式
(7)より求めることかできる。
auralOa*oal+
awoal+ ab+al。
ここで。
a、。= ((Ujm−UiO) VjOViI1
1+ (Uim−UjO) ViOVjml ra1=
(ViOVjm−VjOVim)f 2+ UjO
LIimViQVjm−UiOUjmVjOVima、
、−1(UiOUim) VjOVjm+ ([J
jO−Ujm) ViOViml rこのように、
第1図図示の特徴点抽出部102より出力される特徴点
のうち3個の特徴点のフレーム画像上の座標を用いて式
(5)から並進移動量を弐(7)から回転角を求めるこ
とにより、第2図図示の処理202でのY軸まわりの回
転運動およびX方向とZ方向の並進運動”の移動形態に
対する移動情報の抽出が実現できる。以上で、移動形態
判別部103の実施例を説明した。
1+ (Uim−UjO) ViOVjml ra1=
(ViOVjm−VjOVim)f 2+ UjO
LIimViQVjm−UiOUjmVjOVima、
、−1(UiOUim) VjOVjm+ ([J
jO−Ujm) ViOViml rこのように、
第1図図示の特徴点抽出部102より出力される特徴点
のうち3個の特徴点のフレーム画像上の座標を用いて式
(5)から並進移動量を弐(7)から回転角を求めるこ
とにより、第2図図示の処理202でのY軸まわりの回
転運動およびX方向とZ方向の並進運動”の移動形態に
対する移動情報の抽出が実現できる。以上で、移動形態
判別部103の実施例を説明した。
次に1位置情報抽出部105の実施例を、移動形態判別
部103から出力される移動形態が“Y軸まわりの回転
i!動およびX方向とZ方向の並進運動゛の場合につい
て説明する。
部103から出力される移動形態が“Y軸まわりの回転
i!動およびX方向とZ方向の並進運動゛の場合につい
て説明する。
第1図の特徴点抽出部102より出力される2つのフレ
ーム画像上の特徴点の座標を用いて、弐(7)から回転
角βを求める。求めた回転角βと弐(4)及び式(6)
とを用いることによりj番目とj番目とのフレーム画像
入力時における特1牧点P ik、 P jkのZ成
分は。
ーム画像上の特徴点の座標を用いて、弐(7)から回転
角βを求める。求めた回転角βと弐(4)及び式(6)
とを用いることによりj番目とj番目とのフレーム画像
入力時における特1牧点P ik、 P jkのZ成
分は。
1k−
ulkV、lICO3β+vJ* f 5irlβ−u
ikVIk(k・1,2.・・・、N−1) (
8)と表せ、特徴点の3次元位置のX成分、Y成分は式
(11に式(8)、弐(9)を代入して求められる。こ
のようにして、移動形態判別部103から出力される移
動形態が“°Y軸まわりの回転運動およびX方向とZ方
向の並進運動”′の場合には1式(8)及び式(9)に
より、i番目と1番目との2つのフレーム画像入力時に
おける特徴点の3次元位置を求めることができる。
ikVIk(k・1,2.・・・、N−1) (
8)と表せ、特徴点の3次元位置のX成分、Y成分は式
(11に式(8)、弐(9)を代入して求められる。こ
のようにして、移動形態判別部103から出力される移
動形態が“°Y軸まわりの回転運動およびX方向とZ方
向の並進運動”′の場合には1式(8)及び式(9)に
より、i番目と1番目との2つのフレーム画像入力時に
おける特徴点の3次元位置を求めることができる。
従って、第1図の特徴点抽出部102から出力される2
つのフレーム画像上の特徴点の座標値U ik。
つのフレーム画像上の特徴点の座標値U ik。
Vik、 Ujk、 Vjkと、基準点距離付与部
104から出力される基準点の画像人力装置までの距離
より算出できる基準点のZ座標値ZiOを用いて1移動
形態判別部103から出力される移動形態に対応した位
置情報抽出方法により、i番目と1番目の2つのフレー
ム画像入力時における特徴点の3次元位置を求めること
ができる。
104から出力される基準点の画像人力装置までの距離
より算出できる基準点のZ座標値ZiOを用いて1移動
形態判別部103から出力される移動形態に対応した位
置情報抽出方法により、i番目と1番目の2つのフレー
ム画像入力時における特徴点の3次元位置を求めること
ができる。
以上説明したように2本発明によれば、予め記憶してお
いたN通りの移動形態のうちのどの移動形態の動きを行
ったかを判別し、N通りの移動形態の中のある移動形態
の移動を行ったときに、少なくとも2つ以上の特徴点を
用いて、これらの特徴点の2つのフレーム画像上の座標
と特徴点の中の基準点の画像入力装置までの距離を用い
て、各特徴点の基準点の画像入力装置までの距離を基準
とした3次元位置を抽出することができるから。
いたN通りの移動形態のうちのどの移動形態の動きを行
ったかを判別し、N通りの移動形態の中のある移動形態
の移動を行ったときに、少なくとも2つ以上の特徴点を
用いて、これらの特徴点の2つのフレーム画像上の座標
と特徴点の中の基準点の画像入力装置までの距離を用い
て、各特徴点の基準点の画像入力装置までの距離を基準
とした3次元位置を抽出することができるから。
物体に前もって定めた移動形態及び移動量を運動させた
り1手作業により移動形態及び移動量を計測したりする
必要がなく、運動を行っている物体を観測するだけで物
体上の特徴点の3次元位置情報が抽出できる。
り1手作業により移動形態及び移動量を計測したりする
必要がなく、運動を行っている物体を観測するだけで物
体上の特徴点の3次元位置情報が抽出できる。
また1本発明によれば、予め記憶しておく特定の移動形
態の数Nを増やすことにより、物体の運動に対する制限
を弱めても、運動する物体を観測して得られるl連のフ
レーム画像から記憶しているN通りの移動形態の中の1
つに相当する移動を行っている2つのフレーム画像を得
ることが可能となり、抽出に要する手間と時間の点でよ
り効率的に3次元位置情報が抽出できる。
態の数Nを増やすことにより、物体の運動に対する制限
を弱めても、運動する物体を観測して得られるl連のフ
レーム画像から記憶しているN通りの移動形態の中の1
つに相当する移動を行っている2つのフレーム画像を得
ることが可能となり、抽出に要する手間と時間の点でよ
り効率的に3次元位置情報が抽出できる。
第1図は本発明の一実施例を示す3次元位置情報抽出処
理力式の構成図、第2図は、第1図の移動形態判別部の
処理手順を示す図、第3図はカメラモデルを示す図、第
4図は物体の運動による特徴点の3次元的位置変化とフ
レーム画像上での特徴点の2次元的位置変化の対応を示
す図である。 101・・・画像入力部、102・・・特徴点抽出部。 1.03・・・移動形態判別部、 104・・基準点
距離付与部105・・・位置情報抽出部。 201・・・特徴点の数Mの計数処理。 202・・・移動情報抽出処理 203・・・MCn6個の移動情報が互いに一致したが
どうかの判別処理 204・・・203での抽出結果が一致した場合の数の
計数処理 205・・・制御21信号出力処理 206・・・移動形態を表す信号の出力処理。
理力式の構成図、第2図は、第1図の移動形態判別部の
処理手順を示す図、第3図はカメラモデルを示す図、第
4図は物体の運動による特徴点の3次元的位置変化とフ
レーム画像上での特徴点の2次元的位置変化の対応を示
す図である。 101・・・画像入力部、102・・・特徴点抽出部。 1.03・・・移動形態判別部、 104・・基準点
距離付与部105・・・位置情報抽出部。 201・・・特徴点の数Mの計数処理。 202・・・移動情報抽出処理 203・・・MCn6個の移動情報が互いに一致したが
どうかの判別処理 204・・・203での抽出結果が一致した場合の数の
計数処理 205・・・制御21信号出力処理 206・・・移動形態を表す信号の出力処理。
Claims (1)
- 【特許請求の範囲】 画像入力装置により物体を観測して3次元位置情報を抽
出する3次元位置情報抽出処理方式において、 当該物体を観測して得られる1連のフレーム画像中の2
つのフレーム画像から特徴点を抽出し、抽出した特徴点
の2つのフレーム画像上の座標を用いて該2つのフレー
ム画像間における物体の3次元的移動が、物体の予め記
憶しておいたN通りの特定の移動形態の中の1つの動き
であるかどうかを判別する移動形態判別手段を有し、 該移動形態判別手段で該2つのフレーム画像間での物体
の3次元的動きが予め記憶しておいたN通りの移動形態
の中の1つの動きであると判別された場合に、特徴点の
該2つのフレーム画像上の座標から特徴点の中の1つを
基準とした特徴点の3次元位置を抽出するようにした ことを特徴とする3次元位置情報抽出処理方式。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1142828A JPH036779A (ja) | 1989-06-05 | 1989-06-05 | 3次元位置情報抽出処理方式 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1142828A JPH036779A (ja) | 1989-06-05 | 1989-06-05 | 3次元位置情報抽出処理方式 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH036779A true JPH036779A (ja) | 1991-01-14 |
Family
ID=15324564
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP1142828A Pending JPH036779A (ja) | 1989-06-05 | 1989-06-05 | 3次元位置情報抽出処理方式 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH036779A (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4963942A (en) * | 1987-08-20 | 1990-10-16 | Canon Kabushiki Kaisha | Fixing device having blower for supplying a blast of air |
-
1989
- 1989-06-05 JP JP1142828A patent/JPH036779A/ja active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4963942A (en) * | 1987-08-20 | 1990-10-16 | Canon Kabushiki Kaisha | Fixing device having blower for supplying a blast of air |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN101794349B (zh) | 机器人遥操作增强现实实验系统及方法 | |
| CN103759716B (zh) | 基于机械臂末端单目视觉的动态目标位置和姿态测量方法 | |
| CN108876852B (zh) | 一种基于3d视觉的在线实时物体识别定位方法 | |
| CN105225269A (zh) | 基于运动机构的三维物体建模系统 | |
| JP2559939B2 (ja) | 3次元情報入力装置 | |
| JPH036779A (ja) | 3次元位置情報抽出処理方式 | |
| Cheng et al. | Integration of 3D stereo vision measurements in industrial robot applications | |
| Xin et al. | 3D augmented reality teleoperated robot system based on dual vision | |
| Li et al. | Workpiece intelligent identification and positioning system based on binocular machine vision | |
| JP2005186193A (ja) | ロボットのキャリブレーション方法および三次元位置計測方法 | |
| Lin et al. | A robust epipolar rectification method of stereo pairs | |
| Song et al. | Automatic docking system of fuel filler with cad model-based tracking and visual servoing control | |
| Shao et al. | Object Detection under Dynamic Environment with Application in Visual SLAM | |
| CN117409073A (zh) | 确定抓取点的方法、装置、电子设备及存储介质 | |
| JPH10125749A (ja) | 薄膜製品の検査装置およびそれを用いた薄膜製品の製造方法 | |
| Liu et al. | A Robot 3D Grasping Application Based on Binocular Vision System | |
| Liu et al. | Real time pose estimation based on extended Kalman filter for binocular camera | |
| Sheng et al. | Research on object recognition and manipulator grasping strategy based on binocular vision | |
| JPH087102A (ja) | 対応点抽出装置 | |
| Zhang et al. | Extrinsic calibration of LiDAR-camera based on deep convolutional network | |
| Gorbachev et al. | Application of Artificial Intelligence Methods in the Robocom Project | |
| Durovsky | Point cloud based bin picking: object recognition and pose estimation using region growing segmentation algorithm | |
| Qingda et al. | Coarse registration of dense point clouds based on image feature points | |
| JPH0410070A (ja) | 3次元設計データ作成方法及びその装置 | |
| He et al. | Novel control scheme for prosthetic hands through spatial understanding |