JPH036779A - Processing system for extraction of three-dimensional position information - Google Patents
Processing system for extraction of three-dimensional position informationInfo
- Publication number
- JPH036779A JPH036779A JP1142828A JP14282889A JPH036779A JP H036779 A JPH036779 A JP H036779A JP 1142828 A JP1142828 A JP 1142828A JP 14282889 A JP14282889 A JP 14282889A JP H036779 A JPH036779 A JP H036779A
- Authority
- JP
- Japan
- Prior art keywords
- movement
- position information
- frame images
- feature points
- dimensional position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野]
本発明は、物体を1台の画像入力装置で観測することに
より行う3次元位置情報抽出処理方式に関するものであ
る。DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention relates to a three-dimensional position information extraction processing method performed by observing an object with one image input device.
1台の画像入力装置で観測して得られる1連のフレーム
画像から物体上の特徴点についての3次元の位置情報を
抽出する従来の方式においては物体に対して前もって定
めた運動を定められた移動量だけ施す物体移動手段を設
け、物体移動手段で移動する物体の移動前後を観測した
2つの入力画像からステレオ画像を構成し、ステレ第3
次元位置計測により3次元位置情報を抽出するものであ
った。In the conventional method of extracting three-dimensional positional information about feature points on an object from a series of frame images obtained by observation with a single image input device, a predetermined movement of the object is determined. A stereo image is constructed from two input images observed before and after the movement of the object being moved by the object movement means, and a stereo
Three-dimensional position information was extracted by dimensional position measurement.
従って、前もって定めた運動を定められた移動量だけ物
体に施すか、または、移動量を手作業に、より計測する
必要があり、3次元位置情報を抽出するのに時間と手間
とがかかるという問題点があった。Therefore, it is necessary to apply a predetermined motion to the object by a predetermined amount of movement, or to manually measure the amount of movement, which takes time and effort to extract three-dimensional position information. There was a problem.
本発明は、このような従来の問題点を解決するために、
物体の移動量については制限を設けずに前もって定めた
N通りの移動形態の中の1つの運動を行っている物体を
観測することにより、物体の3次元の位置情報をN昌に
抽出できる3次元位置情報抽出処理力式を提供すること
にある。In order to solve such conventional problems, the present invention has the following features:
By observing an object moving in one of N predetermined movement modes without setting any restrictions on the amount of movement of the object, it is possible to extract N number of three-dimensional position information of the object. The objective is to provide a dimensional position information extraction processing power formula.
本発明の3次元位置情報抽出処理力式においては、1台
の画像入力装置で観測して得られる1連のフレーム画像
中の2つのフレーム画像間における物体の3次元的移動
が、予め記憶しておいた物体のN通りの特定の移動形態
の中の1つであるかどうかを、これら2つのフレーム画
像上の特徴点の座標を用いて判別する移動形態判別手段
を有していることに特徴がある。In the three-dimensional position information extraction processing power formula of the present invention, the three-dimensional movement of an object between two frame images in a series of frame images obtained by observation with one image input device is stored in advance. The present invention has a moving form determining means that uses the coordinates of feature points on these two frame images to determine whether the object is in one of N specific moving forms. It has characteristics.
本発明の3次元位置情報抽出処理力式は、物体が予め記
憶しておいたN通りの移動形態の中の1つの移動形態に
従った移動を行ったかどうかを判別する移動形態判別手
段を有している点で従来の方式と異なる。The three-dimensional position information extraction processing power formula of the present invention has a movement mode determining means for determining whether or not the object has moved according to one movement form among N movement forms stored in advance. It differs from the conventional method in that it
〔実施例]
以下8本発明の実施例を1図面に基づいて詳細に説明す
る。第1図は本寅施例における3次元位置情報抽出処理
力式の構成図を示すものであって。[Example] Below, eight examples of the present invention will be described in detail based on one drawing. FIG. 1 shows a block diagram of the three-dimensional position information extraction processing power formula in this embodiment.
特徴点のうちの1つを基準点とし4その基準点の画像入
力装置までの距離を与える場合の実施例として示してい
る。同図において、101は画像入力部、102は特徴
点抽出部、103は移動形態判別部。This is an example in which one of the feature points is used as a reference point and the distance of the reference point to the image input device is given. In the figure, 101 is an image input section, 102 is a feature point extraction section, and 103 is a moving form discrimination section.
104は基準点距離付与部、105は位置情報抽出部で
ある。104 is a reference point distance adding section, and 105 is a position information extraction section.
画像入力部101は、テレビカメラ等の画像入力装置に
より運動を行っている物体を観測し、観測して得られる
1連のフレーム画像中の2つのフレーム画像を特徴点抽
出部102に出力する。特徴点抽出部102は2画像入
力部101より出力された2つのフレーム画像から少な
くとも2つ以上の特徴点を抽出し、抽出した特徴点の2
つのフレーム画像上の座標を移動形態判別部103及び
位置情報抽出部】05に出力する。2つのフレーム画像
からの特徴点の抽出は、例えば、物体の形状や表面の色
が局所的に急激な変化をする点を画像処理により抽出し
、物体上で同一の点であるものを対応付け。The image input unit 101 observes a moving object using an image input device such as a television camera, and outputs two frame images of a series of frame images obtained by observation to the feature point extraction unit 102. The feature point extraction unit 102 extracts at least two or more feature points from the two frame images output from the two-image input unit 101, and
The coordinates on the two frame images are output to the moving form discriminator 103 and the position information extractor 05. Extraction of feature points from two frame images involves, for example, extracting points where the shape or surface color of an object locally changes abruptly using image processing, and then matching the points that are the same on the object. .
対応付けられた点を特徴点とする。移動形態判別部+0
3は、物体のN通りの特定の移動形態を記憶しており、
特徴点抽出部102から出力される2つのフレーム画像
上の特徴点の座標を用いて、これらの2つのフレーム画
像間での物体の3次元的移動が記憶しておいた物体のN
通りの特定の移動形態の中の1つであるかどうかを判別
し位置情報の抽出を実行するか否かの制御信号を位置情
報抽出部+05に出力する。N通りの移動形態の中の1
つの移動をjテっだと判別された場合には1位置情報の
抽出を実行する旨の制御信号を出力するとともにN通り
の移動形態の中のどの移動形態であるかの信号を位置情
報抽出部105に出力し、N通りの移動形態の中に含ま
れない移動を行ったと判別されたときには1位置情報の
抽出を実行しない旨の制御信号を位置情報抽出部105
に出力する。基準点距離付与部104は、特徴点の中の
1つの点を基準点とし、基準点から画像入力装置までの
距離を各特徴点の画像入力装置までの距離の基準として
与えるもので、特徴点間の位置関係のみ必要な場合は適
当な値を基準点の画像入力装置までの距離として与えれ
ばよい0位置情報抽出部105は、移動形態判別部10
3から出力される制御信号が位置情報抽出を実行する命
令である場合に、特徴点抽出部102から出力された特
徴点の2つのフレーム画像上の位置と、移動形態判別部
103から出力される移動形態と、基準点距離付与部1
04より出力された基準点の画像入力装置までの距離を
用いて2つのフレーム画像入力時における特徴点の3次
元位置情報を抽出して出力する。The associated points are defined as feature points. Movement mode discrimination unit +0
3 memorizes N specific movement forms of an object,
Using the coordinates of the feature points on the two frame images output from the feature point extraction unit 102, the three-dimensional movement of the object between these two frame images is determined by the stored N of the object.
It is determined whether or not it is one of the specific movement modes on the street, and a control signal indicating whether or not to extract position information is output to the position information extraction unit +05. 1 out of N ways of transportation
If it is determined that one movement is a j-t, it outputs a control signal to execute the extraction of one position information, and also extracts the position information from a signal indicating which movement form among N ways of movement. 105, and when it is determined that the movement is not included in the N ways of movement, the position information extraction unit 105 outputs a control signal to the effect that extraction of 1 position information is not executed.
Output to. The reference point distance giving unit 104 sets one point among the feature points as a reference point, and gives the distance from the reference point to the image input device as a reference for the distance of each feature point to the image input device. If only the positional relationship between the two is required, an appropriate value may be given as the distance from the reference point to the image input device.
When the control signal output from 3 is a command to execute position information extraction, the position of the feature point output from the feature point extraction unit 102 on the two frame images and the position output from the movement form determination unit 103 Movement mode and reference point distance adding unit 1
Using the distance of the reference point output from 04 to the image input device, the three-dimensional position information of the feature point at the time of inputting the two frame images is extracted and output.
移動形態判別部103の1実施例を以下に説明する。One embodiment of the movement mode determination unit 103 will be described below.
予め記憶しておいたN通りの特定の移動形態のうちのに
番目の特定の移動形態に従って移動を行っている物体を
観測して得られる1連のフレーム画像において、当該1
連のフレーム画像中の2つのフレーム画像から抽出した
特徴点のフレーム画像上の座標から、これら2つのフレ
ーム画像間における物体の回転運動成分の回転角と並進
運動成分の並進移動量との3次元的移動情報を抽出する
ために必要な特徴点の数をn5とする。In a series of frame images obtained by observing an object moving according to the Nth specific movement mode out of N pre-stored specific movement modes,
From the coordinates on the frame image of the feature points extracted from two frame images in a series of frame images, the rotation angle of the rotational motion component of the object and the translation amount of the translational motion component of the object between these two frame images are calculated in three dimensions. Let n5 be the number of feature points required to extract target movement information.
第2図は移動形態判別部103での判別方法の処理手順
を示す、同図において、処理201は特徴点抽出部10
2で抽出された特徴点の数の計数を行う。FIG. 2 shows the processing procedure of the discrimination method in the moving form discrimination unit 103.
2. The number of extracted feature points is counted.
抽出した特徴点の数をMとする。処理202では。Let M be the number of extracted feature points. In process 202.
画像入力部101から出力された2つのフレーム画像間
での物体の移動形態が予め記憶しておいたN通りの移動
形態の中のに番目の移動形態であるとしてM個の特徴点
からn0個の特徴点をとる組合わせの数、lcn++個
について、これら2つのフレーム画像間での移動情報を
後述する方法で抽出する。処理203では、処理202
で抽出したHCnk個の抽出した移動情報が互いに一致
した場合には2つのフレーム画像間での移動形態かに番
目の移動形態であると判別する。第2図に示すようにこ
れら処理202と203とによるに番目の移動形態であ
るかどうかを判別する処理は、 K、1からに=11ま
での移動形態に応じたN種の処理202及び203を各
々行う。処理204では、k・1からに=lJまでの処
理203によりに番目の移動形態であると判別された場
合の数を調べる。処理204で調べた場合の数が0のと
きは1画像入力部101から出力される2つのフレーム
画像間での物体の3次元的移動形態が予め記憶しておい
た移動形態の中のどれにも当てはまらないとして2処理
205により位置19報抽出を実行しない旨の制御信号
を位置情報抽出部105に出力する。処理204で調べ
た場合の数が1以上のときは9位置情報の抽出を実行す
る旨の制御信号を処理205により出力するとともに、
2つのフレーム画像間での物体の移動に該当する移動形
態を表す信号を処理206により位置情報抽出部105
に出力する0画像入力部101から出力される2つのフ
レーム画像間での物体の3次元的移動形態が予め記憶し
ておいた移動形態の中の2つ以上の移動形態に該当して
いる場合には、それらの移動形態の中のどのし動形態で
あるとしてもよいので1例えば、予め記憶しておく移動
形態に番号を付けておき、該当している2つ以上の移動
形態の中で最も小さい番号の付いた移動形態を2つのフ
レーム画像間での物体の3次元的移動形態として該当す
る移動形態を1つに決定する。Assuming that the movement form of the object between the two frame images output from the image input unit 101 is the movement form of the N movement forms stored in advance, n0 feature points are selected from the M feature points. The movement information between these two frame images is extracted by the method described later for the number of combinations that take the feature points, lcn++. In process 203, process 202
If the HCnk pieces of movement information extracted in step 12 agree with each other, it is determined that the form of movement between the two frame images is the 5th movement form. As shown in FIG. 2, the processes 202 and 203 for determining whether or not it is the 2nd movement mode are as follows: Do each. In process 204, the number of cases where it is determined to be the i-th movement mode in process 203 from k·1 to ii=lJ is checked. If the number checked in process 204 is 0, which of the pre-stored movement forms is the three-dimensional movement form of the object between the two frame images output from the one-image input unit 101? Since this is not applicable, a control signal indicating that extraction of the 19th position information is not executed is outputted to the position information extraction unit 105 in step 2 205. When the number checked in process 204 is 1 or more, a control signal to execute extraction of 9 position information is outputted in process 205, and
The position information extraction unit 105 processes a signal representing a movement form corresponding to the movement of an object between two frame images through processing 206.
0 When the three-dimensional movement form of the object between two frame images output from the image input unit 101 corresponds to two or more movement forms among the movement forms stored in advance. It may be any one of these forms of movement.1 For example, by assigning numbers to the movement forms that are stored in advance, and selecting one of the two or more corresponding movement forms. The moving form with the smallest number is determined as one corresponding moving form as the three-dimensional moving form of the object between the two frame images.
次に、処理202での2つのフレーム画像間での物体の
移動情報抽出方法について説明する。予め記憶しておい
たに番目の移動形態が°°Y軸まわりの回転運動および
X方向とX方向の並進運動“の場合について、移動情報
としてY軸まわりの回転角およびX方向X方向の並進移
動量を抽出する方法を示す。Next, a method for extracting movement information of an object between two frame images in process 202 will be described. In the case where the second pre-stored movement form is "°°rotational movement around the Y-axis and translational movement in the X direction and the We will show how to extract the amount of movement.
カメラモデルを第3図に示す中心射影で表すとカメラレ
ンズの中心を原点、カメラの光軸をZ軸。If the camera model is represented by the central projection shown in Figure 3, the center of the camera lens is the origin and the optical axis of the camera is the Z axis.
カメラの結像面の垂直方向をX軸とする直交座標系にお
いて、物体上の特徴点Pkの3次元位置(Xk 、
Yk 、 Zk ) L;!、 Pk ノアL、−
4画像上の位置を(Llk、Vk)、 カメラレンズの
中心からカメラの結像面までの距離をrとしてZk−Z
k (1
)で表せる。In an orthogonal coordinate system with the X axis in the direction perpendicular to the image plane of the camera, the three-dimensional position (Xk,
Yk, Zk) L;! , Pk Noah L, -
4.The position on the image is (Llk, Vk), and the distance from the center of the camera lens to the image plane of the camera is r, then Zk-Z
k (1
) can be expressed as
第4図に示すように特徴点Pkの1番目とj番目との2
つのフレーム画像入力時における点をPik 、Pjk
(k−0,1,−、N−1、N :特徴点の数、
Pie、 PjOは基準点)、特徴点抽出部102か
ら出力される2つのフレーム画像上のこれらの特徴点の
座標値を(Uik、 Vik) 、 (Ujk、
Vjk)とする。As shown in FIG. 4, the first and jth feature points Pk
Pik and Pjk are the points when inputting two frame images.
(k-0,1,-,N-1,N: number of feature points,
Pie, PjO are reference points), and the coordinate values of these feature points on the two frame images output from the feature point extraction unit 102 are (Uik, Vik), (Ujk,
Vjk).
第4図において、i番目とj番目との2つのフレーム画
像間での物体がY軸まわりに回転角βの回転運動とX方
向及びX方向の並進運動を行っているとき次式が成立す
る。In Fig. 4, when the object between the i-th and j-th frame images is performing a rotational movement around the Y-axis by a rotation angle β and a translational movement in the X direction and the X direction, the following equation holds true. .
一ン −〉−一−−÷ −一−→0Pjk
−OPjO= R0Pik−OPiO(K≠0)
(2)
並進移動ベクトル t= 0PjO0PiO(3)但
し
か得られ、2つのフレーム画像間における物体の並進移
動量を1基準となる特徴点POの2つのフレーム画像上
の座標値(IJ、。、■、。)、 (Ui。。1 -〉-1--÷ -1-→0Pjk
-OPjO= R0Pik-OPiO (K≠0) (2) Translational movement vector t= 0PjO0PiO (3) However, the two points of feature point PO that can be obtained and use the amount of translational movement of the object between two frame images as one reference Coordinate values on the frame image (IJ, ., ■, .), (Ui.
■、。)を用いて式(5)により抽出できる。■,. ) can be extracted using equation (5).
2つのフレーム画像間における物体の回転角βは1式(
11を式(2)に代入し1式(4)を用いてZjkを消
去して。The rotation angle β of the object between two frame images is expressed by the following equation (
Substitute 11 into equation (2) and eliminate Zjk using equation 1 (4).
i番目とj番目との2つのフレーム画像入力時における
特徴点P ik、 P jkのY座標値は同しである
ことにより次式が成立する。Since the Y coordinate values of the feature points P ik and P jk are the same when the i-th and j-th two frame images are input, the following equation holds true.
ZikVik = ZjkVjk
(4)式(1)を式(3)に代入し1式(4)を用
いてZjOを消去することにより。ZikVik = ZjkVjk
(4) By substituting equation (1) into equation (3) and eliminating ZjO using equation (4).
を導出し1式(6)からZikを消去するこ乙により。By deriving and eliminating Zik from equation (6).
回転角βは5基準となる特徴点POと他の2つの特徴点
Pk、PNの2つのフレーム画像上の座標値(Ul、、
V、。)、 (Uj。、■よ。)、 (Ui、。The rotation angle β is determined by the coordinate values (Ul, ,
V. ), (Uj.,■yo.), (Ui,.
V;k) 、 CUik、 Viw) 、 (U
rp、 Vil)(Uit= Vjj)を用いて式
(7)より求めることかできる。V;k), CUik, Viw), (U
It can be obtained from equation (7) using rp, Vil) (Uit=Vjj).
auralOa*oal+ awoal+ ab+al。auralOa*oal+ awesome+ ab+al.
ここで。here.
a、。= ((Ujm−UiO) VjOViI1
1+ (Uim−UjO) ViOVjml ra1=
(ViOVjm−VjOVim)f 2+ UjO
LIimViQVjm−UiOUjmVjOVima、
、−1(UiOUim) VjOVjm+ ([J
jO−Ujm) ViOViml rこのように、
第1図図示の特徴点抽出部102より出力される特徴点
のうち3個の特徴点のフレーム画像上の座標を用いて式
(5)から並進移動量を弐(7)から回転角を求めるこ
とにより、第2図図示の処理202でのY軸まわりの回
転運動およびX方向とZ方向の並進運動”の移動形態に
対する移動情報の抽出が実現できる。以上で、移動形態
判別部103の実施例を説明した。a. = ((Ujm−UiO) VjOViI1
1+ (Uim-UjO) ViOVjml ra1=
(ViOVjm-VjOVim) f 2+ UjO
LIimViQVjm-UiOUjmVjOVima,
, -1(UiOUim) VjOVjm+ ([J
jO-Ujm) ViOViml r Thus,
Using the coordinates on the frame image of three feature points output from the feature point extraction unit 102 shown in FIG. By doing so, it is possible to realize the extraction of movement information for the movement form of ``rotational movement around the Y axis and translational movement in the X direction and Z direction'' in the process 202 shown in FIG. An example was explained.
次に1位置情報抽出部105の実施例を、移動形態判別
部103から出力される移動形態が“Y軸まわりの回転
i!動およびX方向とZ方向の並進運動゛の場合につい
て説明する。Next, an example of the 1-position information extraction unit 105 will be described in the case where the movement form output from the movement form discrimination unit 103 is "rotation i! movement around the Y axis and translational movement in the X direction and the Z direction."
第1図の特徴点抽出部102より出力される2つのフレ
ーム画像上の特徴点の座標を用いて、弐(7)から回転
角βを求める。求めた回転角βと弐(4)及び式(6)
とを用いることによりj番目とj番目とのフレーム画像
入力時における特1牧点P ik、 P jkのZ成
分は。Using the coordinates of the feature points on the two frame images output from the feature point extracting unit 102 in FIG. 1, the rotation angle β is determined from Ni (7). Obtained rotation angle β, 2 (4) and equation (6)
By using , the Z components of the special points P ik and P jk at the time of inputting the j-th and j-th frame images are as follows.
1k−
ulkV、lICO3β+vJ* f 5irlβ−u
ikVIk(k・1,2.・・・、N−1) (
8)と表せ、特徴点の3次元位置のX成分、Y成分は式
(11に式(8)、弐(9)を代入して求められる。こ
のようにして、移動形態判別部103から出力される移
動形態が“°Y軸まわりの回転運動およびX方向とZ方
向の並進運動”′の場合には1式(8)及び式(9)に
より、i番目と1番目との2つのフレーム画像入力時に
おける特徴点の3次元位置を求めることができる。1k- ulkV, lICO3β+vJ* f 5irlβ-u
ikVIk (k・1, 2..., N-1) (
8), and the X component and Y component of the three-dimensional position of the feature point are obtained by substituting equations (8) and (2) (9) into equation (11). If the form of movement to be performed is "rotational movement around the Y-axis and translational movement in the X and Z directions," then the two frames i-th and The three-dimensional positions of feature points at the time of image input can be determined.
従って、第1図の特徴点抽出部102から出力される2
つのフレーム画像上の特徴点の座標値U ik。Therefore, the 2 output from the feature point extraction unit 102 in FIG.
Coordinate values U ik of feature points on two frame images.
Vik、 Ujk、 Vjkと、基準点距離付与部
104から出力される基準点の画像人力装置までの距離
より算出できる基準点のZ座標値ZiOを用いて1移動
形態判別部103から出力される移動形態に対応した位
置情報抽出方法により、i番目と1番目の2つのフレー
ム画像入力時における特徴点の3次元位置を求めること
ができる。1 Movement output from the movement mode determination unit 103 using Vik, Ujk, Vjk, and the Z coordinate value ZiO of the reference point that can be calculated from the image of the reference point output from the reference point distance adding unit 104 and the distance to the human powered device. By using the position information extraction method corresponding to the form, it is possible to obtain the three-dimensional position of the feature point when the i-th and first frame images are input.
以上説明したように2本発明によれば、予め記憶してお
いたN通りの移動形態のうちのどの移動形態の動きを行
ったかを判別し、N通りの移動形態の中のある移動形態
の移動を行ったときに、少なくとも2つ以上の特徴点を
用いて、これらの特徴点の2つのフレーム画像上の座標
と特徴点の中の基準点の画像入力装置までの距離を用い
て、各特徴点の基準点の画像入力装置までの距離を基準
とした3次元位置を抽出することができるから。As explained above, according to the second aspect of the present invention, it is determined which of the N pre-stored movement forms the movement was performed, and a certain movement form among the N movement forms is determined. When moving, each feature point is calculated using at least two feature points, the coordinates of these feature points on the two frame images, and the distance of the reference point among the feature points to the image input device. This is because it is possible to extract the three-dimensional position based on the distance of the reference point of the feature point to the image input device.
物体に前もって定めた移動形態及び移動量を運動させた
り1手作業により移動形態及び移動量を計測したりする
必要がなく、運動を行っている物体を観測するだけで物
体上の特徴点の3次元位置情報が抽出できる。There is no need to move an object in a predetermined movement mode and amount of movement, or manually measure the movement form and amount of movement, and just observe the object in motion. Dimensional position information can be extracted.
また1本発明によれば、予め記憶しておく特定の移動形
態の数Nを増やすことにより、物体の運動に対する制限
を弱めても、運動する物体を観測して得られるl連のフ
レーム画像から記憶しているN通りの移動形態の中の1
つに相当する移動を行っている2つのフレーム画像を得
ることが可能となり、抽出に要する手間と時間の点でよ
り効率的に3次元位置情報が抽出できる。Furthermore, according to the present invention, by increasing the number N of specific movement modes stored in advance, even if the restrictions on the movement of the object are weakened, the One of the N ways of movement that I remember
It is now possible to obtain two frame images in which movement corresponds to , and three-dimensional position information can be extracted more efficiently in terms of the effort and time required for extraction.
第1図は本発明の一実施例を示す3次元位置情報抽出処
理力式の構成図、第2図は、第1図の移動形態判別部の
処理手順を示す図、第3図はカメラモデルを示す図、第
4図は物体の運動による特徴点の3次元的位置変化とフ
レーム画像上での特徴点の2次元的位置変化の対応を示
す図である。
101・・・画像入力部、102・・・特徴点抽出部。
1.03・・・移動形態判別部、 104・・基準点
距離付与部105・・・位置情報抽出部。
201・・・特徴点の数Mの計数処理。
202・・・移動情報抽出処理
203・・・MCn6個の移動情報が互いに一致したが
どうかの判別処理
204・・・203での抽出結果が一致した場合の数の
計数処理
205・・・制御21信号出力処理
206・・・移動形態を表す信号の出力処理。Fig. 1 is a block diagram of a three-dimensional position information extraction processing power formula showing an embodiment of the present invention, Fig. 2 is a diagram showing the processing procedure of the movement mode discrimination section of Fig. 1, and Fig. 3 is a camera model. FIG. 4 is a diagram showing the correspondence between a three-dimensional positional change of a feature point due to the movement of an object and a two-dimensional positional change of a feature point on a frame image. 101... Image input section, 102... Feature point extraction section. 1.03...Movement mode discrimination unit 104...Reference point distance giving unit 105...Position information extraction unit. 201...Counting process of the number M of feature points. 202...Movement information extraction process 203...Discrimination process to determine whether the six MCn pieces of movement information match each other 204...Counting process for the number of cases in which the extraction results in 203 match 205...Control 21 Signal output processing 206: Output processing of a signal representing the movement mode.
Claims (1)
出する3次元位置情報抽出処理方式において、 当該物体を観測して得られる1連のフレーム画像中の2
つのフレーム画像から特徴点を抽出し、抽出した特徴点
の2つのフレーム画像上の座標を用いて該2つのフレー
ム画像間における物体の3次元的移動が、物体の予め記
憶しておいたN通りの特定の移動形態の中の1つの動き
であるかどうかを判別する移動形態判別手段を有し、 該移動形態判別手段で該2つのフレーム画像間での物体
の3次元的動きが予め記憶しておいたN通りの移動形態
の中の1つの動きであると判別された場合に、特徴点の
該2つのフレーム画像上の座標から特徴点の中の1つを
基準とした特徴点の3次元位置を抽出するようにした ことを特徴とする3次元位置情報抽出処理方式。[Claims] In a three-dimensional position information extraction processing method for observing an object using an image input device and extracting three-dimensional position information, two of a series of frame images obtained by observing the object are provided.
Feature points are extracted from two frame images, and the coordinates of the extracted feature points on the two frame images are used to move the object three-dimensionally between the two frame images in N ways stored in advance. a moving form discriminating means for discriminating whether the movement is one of specific moving forms, and the moving form discriminating means stores in advance the three-dimensional movement of the object between the two frame images. If it is determined that the movement is one of the N movement modes set, three of the feature points based on one of the feature points are determined from the coordinates of the feature points on the two frame images. A three-dimensional position information extraction processing method characterized by extracting dimensional positions.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1142828A JPH036779A (en) | 1989-06-05 | 1989-06-05 | Processing system for extraction of three-dimensional position information |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1142828A JPH036779A (en) | 1989-06-05 | 1989-06-05 | Processing system for extraction of three-dimensional position information |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH036779A true JPH036779A (en) | 1991-01-14 |
Family
ID=15324564
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP1142828A Pending JPH036779A (en) | 1989-06-05 | 1989-06-05 | Processing system for extraction of three-dimensional position information |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH036779A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4963942A (en) * | 1987-08-20 | 1990-10-16 | Canon Kabushiki Kaisha | Fixing device having blower for supplying a blast of air |
-
1989
- 1989-06-05 JP JP1142828A patent/JPH036779A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4963942A (en) * | 1987-08-20 | 1990-10-16 | Canon Kabushiki Kaisha | Fixing device having blower for supplying a blast of air |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN101794349B (en) | Experimental system and method for augmented reality of teleoperation of robot | |
| CN103759716B (en) | The dynamic target position of mechanically-based arm end monocular vision and attitude measurement method | |
| CN108876852B (en) | Online real-time object identification and positioning method based on 3D vision | |
| CN105225269A (en) | Based on the object modelling system of motion | |
| JP2559939B2 (en) | Three-dimensional information input device | |
| JPH036779A (en) | Processing system for extraction of three-dimensional position information | |
| Cheng et al. | Integration of 3D stereo vision measurements in industrial robot applications | |
| Xin et al. | 3D augmented reality teleoperated robot system based on dual vision | |
| Li et al. | Workpiece intelligent identification and positioning system based on binocular machine vision | |
| JP2005186193A (en) | Calibration method and three-dimensional position measuring method for robot | |
| Lin et al. | A robust epipolar rectification method of stereo pairs | |
| Song et al. | Automatic docking system of fuel filler with cad model-based tracking and visual servoing control | |
| Shao et al. | Object Detection under Dynamic Environment with Application in Visual SLAM | |
| CN117409073A (en) | Method and device for determining grabbing points, electronic equipment and storage medium | |
| JPH10125749A (en) | Thin film product inspection apparatus and thin film product manufacturing method using the same | |
| Liu et al. | A Robot 3D Grasping Application Based on Binocular Vision System | |
| Liu et al. | Real time pose estimation based on extended Kalman filter for binocular camera | |
| Sheng et al. | Research on object recognition and manipulator grasping strategy based on binocular vision | |
| JPH087102A (en) | Corresponding point extractor | |
| Zhang et al. | Extrinsic calibration of LiDAR-camera based on deep convolutional network | |
| Gorbachev et al. | Application of Artificial Intelligence Methods in the Robocom Project | |
| Durovsky | Point cloud based bin picking: object recognition and pose estimation using region growing segmentation algorithm | |
| Qingda et al. | Coarse registration of dense point clouds based on image feature points | |
| JPH0410070A (en) | 3D design data creation method and device | |
| He et al. | Novel control scheme for prosthetic hands through spatial understanding |