JPH0949714A - 3D shape extraction device - Google Patents
3D shape extraction deviceInfo
- Publication number
- JPH0949714A JPH0949714A JP7199893A JP19989395A JPH0949714A JP H0949714 A JPH0949714 A JP H0949714A JP 7199893 A JP7199893 A JP 7199893A JP 19989395 A JP19989395 A JP 19989395A JP H0949714 A JPH0949714 A JP H0949714A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- dimensional shape
- camera
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 物体の3次元形状を容易に高い精度で求め
る。
【解決手段】 異る視点で撮像した画像データ#1 、#
2 は画像前処理部61で被計測体画像と特徴点群とを抽
出される。パラメータ推定部62は各画像データの変位
を示すパラメータP(1,2)と特徴点群とからパラメ
ータの推定、修正を行い、距離分布抽出部63は、2組
の各計測体画像と上記推定されたパラメータとから各画
像の重複部分での2組の距離分布を求める。距離情報統
合部21は、一方のパラメータに合わせて2組の距離分
布を統合し、3次元形状抽出部65は、統合された距離
分布と統合時のパラメータとから被計測体の3次元形状
を抽出する。
(57) 【Abstract】 PROBLEM TO BE SOLVED: To easily and highly accurately obtain a three-dimensional shape of an object. SOLUTION: Image data # 1 and # imaged from different viewpoints
In the image preprocessing unit 61, the image of the body to be measured and the feature point group 2 are extracted. The parameter estimation unit 62 estimates and corrects the parameters from the parameter P (1,2) indicating the displacement of each image data and the feature point group, and the distance distribution extraction unit 63 sets two sets of each measurement object image and the above estimation. Two sets of distance distributions at the overlapping portion of each image are obtained from the obtained parameters. The distance information integration unit 21 integrates the two sets of distance distributions according to one parameter, and the three-dimensional shape extraction unit 65 determines the three-dimensional shape of the measured object from the integrated distance distribution and the parameters at the time of integration. Extract.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、CGやCADのた
めの立体形状モデルの作成に必要な物体や環境の3次元
の情報を2次元画像から求める3次元形状抽出装置に関
するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape extraction device for obtaining three-dimensional information of an object or environment necessary for creating a three-dimensional shape model for CG or CAD from a two-dimensional image.
【0002】[0002]
【従来の技術】従来より、物体の3次元形状を求める技
術として、例えばテレビジョン学会誌、Vo1.45、
No.4(1991)、pp.453−460に記載さ
れているものがある。上記文献に記載されているよう
に、物体の3次元形状を求める方法は大別して受動的手
法と能動的手法とがある。受動的手法の代表的なものが
ステレオ画像法であり、2台のカメラを用いて三角測量
を行うものである。この方法では左右の画像から同じも
のが写っている場所を探索し、その位置ずれ量から被写
体の3次元位置を計測する。また、能動的手法の代表的
なものとしては光を投影し反射して帰ってくるまでの時
間を計測して距離を求める光レーザ型のレンジファイン
ダや、スリット状の光パターンを投影して被写体に写る
パターン形状の変位から3次元形状を測定するスリット
光投影法等がある。2. Description of the Related Art Conventionally, as a technique for obtaining a three-dimensional shape of an object, for example, Journal of Television Society, Vo1.45,
No. 4 (1991), pp. 453-460. As described in the above document, methods for obtaining the three-dimensional shape of an object are roughly classified into a passive method and an active method. A typical passive method is a stereo image method in which triangulation is performed using two cameras. In this method, a place where the same object is shown is searched from the left and right images, and the three-dimensional position of the subject is measured from the amount of displacement. A typical active method is a light-laser range finder that measures the time it takes to project light, reflect it, and return to it, or project a slit-shaped light pattern on the subject. There is a slit light projection method for measuring a three-dimensional shape from the displacement of the pattern shape shown in FIG.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上記ス
テレオ画像法では装置が大がかりになり、2台のカメラ
の位置決めの精度が厳しいため設定が困難であるという
問題があった。しかも例えば物体の背面のような画像中
に写っていない領域については3次元形状を求められな
いので、わずらわしい設定を再度行う必要があった。ま
た、能動的手法では光等なんらかのエネルギーを物体に
照射するので、物体までの距離が遠い場合にはエネルギ
ーの強度を強くする必要があり、危険であるという問題
があった。However, in the above-mentioned stereo image method, there is a problem that the apparatus becomes large in size and the positioning accuracy of the two cameras is strict, which makes setting difficult. Moreover, since it is not possible to obtain a three-dimensional shape for a region that is not shown in the image, such as the back surface of an object, it is necessary to perform troublesome setting again. In addition, since an active method irradiates an object with some energy such as light, when the distance to the object is long, it is necessary to increase the intensity of the energy, which is dangerous.
【0004】そこで本発明の第1の目的は、わずらわし
い設定を行なわずに受動的手法によって物体の3次元形
状を精度良く求めることのできる3次元形状抽出装置を
提供することである。Therefore, a first object of the present invention is to provide a three-dimensional shape extraction device which can accurately obtain the three-dimensional shape of an object by a passive method without making a troublesome setting.
【0005】また、本発明の第2の目的は、カメラの位
置決めの精度が悪い場合にも物体の3次元形状を精度良
く求めることのできる3次元形状抽出装置を提供するこ
とである。本発明の第3の目的は、カメラで撮った画像
の対応付け情報を用いて物体の3次元形状をさらに精度
良く求めることのできる3次元形状抽出装置を提供する
ことである。A second object of the present invention is to provide a three-dimensional shape extraction device capable of accurately obtaining the three-dimensional shape of an object even when the positioning accuracy of the camera is poor. A third object of the present invention is to provide a three-dimensional shape extraction device that can more accurately determine the three-dimensional shape of an object using the correspondence information of the images taken by the camera.
【0006】[0006]
【課題を解決するための手段】本発明においては、被計
測物体を撮像する撮像手段と、上記撮像手段の位置およ
び姿勢の変化を検知する検知手段と、上記撮像手段から
得られる少なくとも撮像位置が異りかつ画像の一部が重
複した複数の画像と上記検知手段の出力とから撮像パラ
メータを推定するパラメータ推定手段と、上記複数の画
像と上記パラメータ推定手段の出力とから上記撮像手段
と被計測物体との距離を算出する距離算出手段とを設け
ている。According to the present invention, an image pickup means for picking up an image of an object to be measured, a detecting means for detecting a change in the position and orientation of the image pickup means, and at least an image pickup position obtained from the image pickup means are provided. Parameter estimating means for estimating an imaging parameter from a plurality of different and partially overlapping images and the output of the detecting means, and the image capturing means and the measured object based on the plurality of images and the output of the parameter estimating means. Distance calculation means for calculating the distance to the object is provided.
【0007】[0007]
【作用】撮像手段の位置、姿勢の変化を検知手段で検知
すると共に、異る位置で撮像した複数の被計測体の画像
と上記検知手段の出力とからパラメータ推定手段により
撮像パラメータを推定し、推定されたパラメータと上記
の各画像とに基づいて距離算出手段は撮像手段と被計測
体との距離を算出する。The change of the position and the posture of the image pickup means is detected by the detection means, and the image pickup parameter is estimated by the parameter estimation means from the images of the plurality of objects to be measured taken at different positions and the output of the detection means. The distance calculation means calculates the distance between the imaging means and the measured object based on the estimated parameters and the above-mentioned images.
【0008】[0008]
【発明の実施の形態】図1は本発明の第1の実施の形態
による3次元形状抽出装置における3次元形状抽出の概
念および基本構成を示す。図1のように、使用者はグラ
フィックスやCAD等を行うコンピュータ1に接続され
たカメラ2で被計測物体3の周りをスキャンしながら画
像入力を行う。図2にその基本構成を示す。コンピュー
タ1は、演算およびグラフィックス処理を行う処理装置
11とCRT等の表示を行う表示装置12、キーボー
ド、マウス等のコマンド入力を行う入力装置13、IC
メモリやハードディスク等の記憶装置14よりなり、さ
らにコンピュータ1内にカメラ2に直結した処理を行う
カメラ専用処理装置5が設置されている。尚、カメラ専
用処理装置5はカメラ2内に設けてもよい。また、処理
装置11の内部プログラムによりカメラ専用処理装置5
の処理を行うようにしてもよい。1 shows the concept and basic configuration of three-dimensional shape extraction in a three-dimensional shape extraction device according to a first embodiment of the present invention. As shown in FIG. 1, a user inputs an image while scanning around the measured object 3 with a camera 2 connected to a computer 1 that performs graphics, CAD, and the like. FIG. 2 shows the basic configuration. The computer 1 includes a processing device 11 for performing calculation and graphics processing, a display device 12 for displaying a CRT, an input device 13 for inputting a command such as a keyboard and a mouse, an IC.
A storage device 14 such as a memory or a hard disk is provided, and a camera-dedicated processing device 5 that directly connects to the camera 2 is installed in the computer 1. The camera-dedicated processing device 5 may be provided in the camera 2. In addition, the internal processing program of the processing device 11 allows the camera-specific processing device 5
You may make it perform the process of.
【0009】3次元形状の入力はコンピュータ1の画像
入力プログラムを起動することによって行われる。この
時、使用者はまず被計測物体3を補正パッド4の上に置
く。そして、コンピュータ1の画像入力プログラムを入
力装置13からコマンド入力により起動すると、コンピ
ュータ1の表示装置12にカメラのファインダに相当す
るウインドウ(以下、ファインダウインドウと称する)
が生成される。そしてカメラ2のスイッチを入れると、
ウインドウ内にカメラ2で撮像した画像が表示される。
使用者はこの表示された画像を見ながら被計測物体3が
画面のほぼ中央にくるようにフレーミングを行った後、
シャッタを押す。そして、そのまま被計測物体3のスキ
ャンニングを行い、被計測物体3の画像データを取得す
る。この画像データがカメラ専用処理装置5と処理装置
11によって処理されることにより、被計測物体3の3
次元データが得られる。The three-dimensional shape is input by activating an image input program of the computer 1. At this time, the user first places the measured object 3 on the correction pad 4. Then, when the image input program of the computer 1 is started by command input from the input device 13, a window corresponding to the viewfinder of the camera is displayed on the display device 12 of the computer 1 (hereinafter referred to as a viewfinder window).
Is generated. Then switch on camera 2,
The image captured by the camera 2 is displayed in the window.
While observing the displayed image, the user performs framing so that the measured object 3 is located at the substantially center of the screen,
Press the shutter. Then, the object 3 to be measured is scanned as it is, and the image data of the object 3 to be measured is acquired. By processing the image data by the camera-dedicated processing device 5 and the processing device 11, the 3 of the measured object 3 is processed.
Dimensional data is obtained.
【0010】図3はカメラ2の構成を示すブロック図で
ある。21は被計測物体3を撮像する撮像レンズ、22
は画像を電気信号として取り込むCCD等のイメージセ
ンサ、23はイメージセンサ22からの電気信号を保持
し、画像信号s1として出力するサンプルホールド回路
である。イメージセンサ22は検出画像領域の中心がほ
ぼ撮像レンズ21の光軸と交わり、イメージセンサ22
の検出面は撮像レンズ21の光軸とほぼ直交するよう調
整されている。24はカメラのオートフォーカス等に用
いられる焦点検出装置で、図示しないLEDから赤外光
を被計測物体3に投射し、カメラに戻ってくる反射光を
図示しないラインセンサで受光し、その受光位置により
焦点位置を検出する。25はパルスモータ等のレンズ駆
動部であり、撮像レンズ21を光軸と平行な方向に駆動
してピントを合わせる。26はレンズ駆動回路であり、
焦点検出装置24からの焦点位置検出信号に応じてレン
ズ駆動部25の制御を行うと共に、レンズ位置信号s2
を出力する。FIG. 3 is a block diagram showing the structure of the camera 2. Reference numeral 21 denotes an imaging lens for imaging the measured object 3, 22
Is an image sensor such as a CCD that captures an image as an electric signal, and 23 is a sample hold circuit that holds the electric signal from the image sensor 22 and outputs it as an image signal s1. The center of the detected image area of the image sensor 22 substantially intersects with the optical axis of the imaging lens 21.
The detection surface of is adjusted so as to be substantially orthogonal to the optical axis of the imaging lens 21. Reference numeral 24 denotes a focus detection device used for auto-focusing of a camera, which projects infrared light from an LED (not shown) onto the object 3 to be measured, receives reflected light returning to the camera by a line sensor (not shown), and receives the light. The focus position is detected by. Reference numeral 25 denotes a lens driving unit such as a pulse motor, which drives the imaging lens 21 in a direction parallel to the optical axis to focus the image. 26 is a lens drive circuit,
The lens drive unit 25 is controlled according to the focus position detection signal from the focus detection device 24, and the lens position signal s2
Is output.
【0011】27は図示しない加速度センサ、振動ジャ
イロ等の角速度センサ及び積分器より構成されるカメラ
変位検出装置であり、カメラ2の3次元位置および姿勢
の変位を検出し、カメラ変位信号s3として出力する。
このカメラ変位検出装置27の検出回転角の軸は、ほぼ
撮像レンズ21の光軸、イメージセンサ22の水平、垂
直方向の軸に合うように調整されている。また、この3
つの座標軸の原点はほぼカメラ変位検出装置27の中心
位置である。28はシャッタであり、シャッタ信号(オ
ン・オフ信号)s4を出力する。29はカメラ2からの
出力信号s1〜s4をパラレルにカメラ専用処理装置5
に送るためのインタフェース部である。Reference numeral 27 denotes a camera displacement detection device composed of an acceleration sensor (not shown), an angular velocity sensor such as a vibration gyro, and an integrator. The camera displacement detection device 27 detects displacement of the camera 2 in three-dimensional position and orientation and outputs it as a camera displacement signal s3. To do.
The axis of the detected rotation angle of the camera displacement detection device 27 is adjusted so as to substantially match the optical axis of the imaging lens 21 and the horizontal and vertical axes of the image sensor 22. In addition, this 3
The origin of the two coordinate axes is approximately the center position of the camera displacement detection device 27. A shutter 28 outputs a shutter signal (on / off signal) s4. Reference numeral 29 is a camera-dedicated processing device 5 for parallelizing the output signals s1 to s4 from the camera 2.
Interface for sending to.
【0012】図4はカメラ専用処理装置5の構成を示す
ブロック図である。51は入力インタフェース部でカメ
ラ2から送られてきた画像信号s1、レンズ位置信号s
2、カメラ変位信号s3、シャッタ信号s4を受け、装
置内の各部に送る。52はオートゲインコントロール回
路で、自動的に画像信号s1の利得を制御する。53は
ガンマ補正回路であり、オートゲインコントロール回路
52の出力信号の階調補正を行う。54はA/D変換器
でガンマ補正回路53の出力信号をアナログ−デジタル
変換し、デジタル画像データを出力する。55はレンズ
情報記憶部であり、撮像レンズ21固有の情報を記憶し
ている。FIG. 4 is a block diagram showing the configuration of the camera-dedicated processing device 5. Reference numeral 51 denotes an input interface unit, which is an image signal s1 and a lens position signal s sent from the camera 2.
2. The camera displacement signal s3 and the shutter signal s4 are received and sent to each section in the apparatus. 52 is an auto gain control circuit which automatically controls the gain of the image signal s1. Reference numeral 53 is a gamma correction circuit, which performs gradation correction of the output signal of the automatic gain control circuit 52. An A / D converter 54 performs analog-digital conversion on the output signal of the gamma correction circuit 53 and outputs digital image data. A lens information storage unit 55 stores information unique to the imaging lens 21.
【0013】56は視点位置算出回路であり、レンズ位
置信号s2とレンズ情報記憶部55に記憶されているデ
ータとにより、視点位置(レンズ位置に応じた撮像レン
ズ21の像側主点(以後、視点と称する)のイメージセ
ンサ22で得られるデジタル画像の中心からの位置で、
撮像レンズ21とイメージセンサ22を含む撮像系の光
学的配置を表す)を算出して出力する。57は視点変位
算出回路でありカメラ変位信号s3とレンズ情報記憶部
55に記憶されているデータとにより、撮像レンズ21
の視点の移動量と光軸の回転変位量とを算出して出力す
る。58は撮像データ書き込み制御部で、シャッタ信号
s4がオンの状態でA/D変換器54の出力信号である
デジタル画像データと視点位置算出回路56の出力であ
る視点位置データ、視点および視点変位算出回路57の
出力である視点移動量、光軸回転量のデータを記憶装置
14に書き込む制御を行う。Reference numeral 56 denotes a viewpoint position calculation circuit, which uses the lens position signal s2 and the data stored in the lens information storage section 55 to determine the viewpoint position (the image side principal point of the image pickup lens 21 corresponding to the lens position (hereinafter, referred to as the image side principal point). The position from the center of the digital image obtained by the image sensor 22)
The optical arrangement of the image pickup system including the image pickup lens 21 and the image sensor 22 is calculated and output. Reference numeral 57 denotes a viewpoint displacement calculation circuit, which uses the camera displacement signal s3 and the data stored in the lens information storage unit 55 to capture the image pickup lens 21.
And the amount of rotation displacement of the optical axis is calculated and output. Reference numeral 58 denotes an imaging data writing control unit, which calculates the digital image data which is the output signal of the A / D converter 54 and the viewpoint position data which is the output of the viewpoint position calculating circuit 56, the viewpoint and the viewpoint displacement when the shutter signal s4 is on. Control is performed to write the data of the viewpoint movement amount and the optical axis rotation amount output from the circuit 57 to the storage device 14.
【0014】次にカメラ2で被計測物体3の周りをスキ
ャンしながら画像入力を行う際のカメラ2およびカメラ
専用処理装置5の動作を説明する。まず、コンピュータ
1の画像入力プログラムを起動すると、コンピュータ1
内の処理装置11はファインダウインドウを生成して表
示装置12に表示する。そして、カメラ2の図示しない
電源スイッチがオンになった状態で、撮像レンズ21で
取り込んだ画像はイメージセンサ22、サンプルホール
ド回路23、インタフェース部29を介して画像信号s
1としてカメラ専用処理装置5に送られる。この画像信
号s1は入力インタフェース部51で受け取られ、オー
トゲインコントロール回路52、ガンマ補正回路53、
A/D変換器54を介してデジタル画像データとして出
力される。このデジタル画像データはコンピュータ1内
の処理装置11の図示しないグラフィックメモリに書き
込まれ、また、処理装置11は表示装置12のファイン
ダウインドウにこの画像を表示する。Next, the operations of the camera 2 and the camera-dedicated processor 5 when the camera 2 scans the object 3 to be measured and inputs an image will be described. First, when the image input program of the computer 1 is started, the computer 1
The processing device 11 therein generates a finder window and displays it on the display device 12. Then, with the power switch (not shown) of the camera 2 turned on, the image captured by the image pickup lens 21 is passed through the image sensor 22, the sample hold circuit 23, and the interface unit 29 to obtain the image signal s.
1 is sent to the camera-dedicated processing device 5. The image signal s1 is received by the input interface unit 51, and the auto gain control circuit 52, the gamma correction circuit 53,
It is output as digital image data via the A / D converter 54. This digital image data is written in a graphic memory (not shown) of the processing device 11 in the computer 1, and the processing device 11 displays this image in the finder window of the display device 12.
【0015】この間、焦点検出装置24はイメージセン
サ22の画面ほぼ中央に相当する領域でのピントずれ量
を常時検出し、レンズ駆動回路26は焦点検出装置24
で検出される信号に応じてレンズ駆動部25を制御し、
レンズ駆動部25は撮像レンズ21を駆動してピントを
合わせる。この時、レンズ駆動回路26はレンズ駆動部
25を制御する信号をレンズ位置信号s2としてインタ
フェース部29を介してカメラ専用処理装置5に送る。
この時送られるレンズ位置信号s2は撮像レンズ21の
基準位置からの繰出量を表している。以上の動作により
撮像レンズ21で取り込んだ画像がファインダウインド
ウにそのまま表示される。During this time, the focus detection device 24 constantly detects the focus shift amount in the area corresponding to the substantially center of the screen of the image sensor 22, and the lens drive circuit 26 causes the focus detection device 24.
The lens drive unit 25 is controlled according to the signal detected by
The lens driving unit 25 drives the imaging lens 21 to focus the image. At this time, the lens drive circuit 26 sends a signal for controlling the lens drive unit 25 to the camera-dedicated processing device 5 via the interface unit 29 as a lens position signal s2.
The lens position signal s2 sent at this time represents the amount of extension of the imaging lens 21 from the reference position. By the above operation, the image captured by the imaging lens 21 is displayed as it is in the finder window.
【0016】次に、使用者はこの画像を見てフレーミン
グ等を行い、構図が決定したところでシャッタ28を押
す。シャッタ28が押されるとレンズ駆動回路26はレ
ンズ駆動部25が撮像レンズ21を駆動しないように制
御を行い、撮像レンズ21のピント位置が固定される。
またシャッタ28からのシャッタ信号s4がインタフェ
ース部29を介してカメラ専用処理装置5に送られる。
一方、カメラ変位検出装置27はカメラ2の図示しない
電源スイッチがオンになった状態で、常時カメラの位置
および姿勢の変位を検出し、そのカメラ変位信号s3が
インタフェース部29を介してカメラ専用処理装置5に
送られる。またカメラ専用処理装置5に送られたレンズ
位置信号s2は入力インタフェース部51を介して視点
位置算出回路56に送られる。Next, the user views the image, performs framing, etc., and presses the shutter 28 when the composition is determined. When the shutter 28 is pressed, the lens drive circuit 26 controls the lens drive unit 25 not to drive the image pickup lens 21, and the focus position of the image pickup lens 21 is fixed.
Further, a shutter signal s4 from the shutter 28 is sent to the camera-dedicated processing device 5 via the interface unit 29.
On the other hand, the camera displacement detection device 27 constantly detects the displacement of the position and orientation of the camera in a state where the power switch (not shown) of the camera 2 is turned on, and the camera displacement signal s3 receives the camera-dedicated processing via the interface unit 29. Sent to the device 5. The lens position signal s2 sent to the camera-dedicated processor 5 is sent to the viewpoint position calculation circuit 56 via the input interface unit 51.
【0017】視点位置算出回路56はレンズ情報記憶部
55に記憶されている視点位置補正テーブルをレンズ位
置信号s2の値に応じて読み出し、視点位置を求める。
すなわち、レンズ情報記憶部55に記憶されている視点
位置補正テーブルには、レンズ位置信号s2の値に応じ
た撮像レンズ21の繰り出し位置でのイメージセンサ2
2で得られるデジタル画像の中心からの視点位置データ
が記憶されている。この視点位置データは撮像レンズ2
1の光軸方向成分fとそれに直交するイメージセンサ2
2の水平、垂直方向成分(Δx,Δy)の3つの成分を
持つ。理想的にはfは撮像レンズ21の焦点距離にほぼ
等しく、(Δx,Δy)はほぼ0に等しい。The viewpoint position calculation circuit 56 reads the viewpoint position correction table stored in the lens information storage unit 55 according to the value of the lens position signal s2, and obtains the viewpoint position.
That is, in the viewpoint position correction table stored in the lens information storage unit 55, the image sensor 2 at the extended position of the imaging lens 21 according to the value of the lens position signal s2.
The viewpoint position data from the center of the digital image obtained in 2 is stored. This viewpoint position data is taken by the imaging lens 2
The optical axis direction component f of 1 and the image sensor 2 orthogonal to it
It has three components of two horizontal and vertical components (Δx, Δy). Ideally, f is almost equal to the focal length of the imaging lens 21, and (Δx, Δy) is almost equal to 0.
【0018】一方、カメラ専用処理装置5に送られたカ
メラ変位信号s3は入力インタフェース部51を介して
視点変位算出回路57へ送られる。カメラ2から送られ
てくるカメラ変位信号s3はカメラ変位検出装置27の
中心を原点とする3つの直交した座標軸で決定できる座
標系での位置変位、角度変位の情報を表すものである。
視点変位算出回路57はレンズ情報記憶部55に記憶さ
れている視点変換データを用いてマトリックス演算を行
い、イメージセンサ22の検出面の撮像レンズ21の光
軸との交点を原点とした撮像レンズ21の光軸、イメー
ジセンサ22の水平、垂直方向の軸で決定できる座標系
での位置変位(以下、視点移動量と称する)および角度
変位(以下、光軸回転量と称する)を求める。すなわ
ち、この視点変位算出回路57の処理により、カメラ変
位検出装置27と撮像レンズ21の原点、座標軸のずれ
が補正される。従って、レンズ情報記憶部55にはカメ
ラ変位検出装置27で検出されるカメラ変位信号s3を
視点移動量および光軸回転量に変換する変換マトリック
スが視点変換データとして記憶されている。On the other hand, the camera displacement signal s3 sent to the camera-dedicated processor 5 is sent to the viewpoint displacement calculation circuit 57 via the input interface section 51. The camera displacement signal s3 sent from the camera 2 represents information on the positional displacement and the angular displacement in the coordinate system which can be determined by the three orthogonal coordinate axes having the center of the camera displacement detection device 27 as the origin.
The viewpoint displacement calculation circuit 57 performs matrix calculation using the viewpoint conversion data stored in the lens information storage unit 55, and the image pickup lens 21 whose origin is an intersection of the detection surface of the image sensor 22 and the optical axis of the image pickup lens 21. Of the optical axis and the horizontal and vertical axes of the image sensor 22 in the coordinate system (hereinafter referred to as a viewpoint movement amount) and angular displacement (hereinafter referred to as an optical axis rotation amount) are obtained. That is, by the processing of the viewpoint displacement calculation circuit 57, the displacements of the origins and coordinate axes of the camera displacement detection device 27 and the imaging lens 21 are corrected. Therefore, the lens information storage unit 55 stores, as viewpoint conversion data, a conversion matrix that converts the camera displacement signal s3 detected by the camera displacement detection device 27 into the viewpoint movement amount and the optical axis rotation amount.
【0019】次に撮像データ書き込み制御部58は、カ
メラ専用処理装置5に入力インタフェース部51を介し
て送られたシャッタ信号s4がオンの状態の時に、A/
D変換器54から出力されるデジタル画像データ、視点
位置算出回路56から出力される視点位置データ、視点
変位算出回路57から出力される視点移動量および光軸
回転量データを受け取り、これらのデータをコンピュー
タ1の記憶装置14に書き込むように制御する。このデ
ータ書き込みはシャッタ信号s4がオフになるまで行わ
れ、シャッタ信号s4がオフになるとデジタル画像デー
タおよび入力時の視点位置データ、視点移動量および光
軸回転量データの入力処理は完了する。Next, when the shutter signal s4 sent to the camera-dedicated processing unit 5 via the input interface unit 51 is in the ON state, the image pickup data writing control unit 58 outputs A /
The digital image data output from the D converter 54, the viewpoint position data output from the viewpoint position calculation circuit 56, the viewpoint movement amount and the optical axis rotation amount data output from the viewpoint displacement calculation circuit 57 are received, and these data are received. The computer 1 is controlled to write to the storage device 14 of the computer 1. This data writing is performed until the shutter signal s4 is turned off. When the shutter signal s4 is turned off, the input processing of the digital image data, the viewpoint position data at the time of input, the viewpoint movement amount, and the optical axis rotation amount data is completed.
【0020】本実施例においては撮像レンズ21が理想
結像系である場合を想定して入力処理について説明した
が、例えば撮像レンズ21の光学特性として歪曲が大き
い場合には、A/D変換器54から出力されるデジタル
画像データに対して歪曲補正を行う処理部を設け、その
出力画像データを記憶装置14に書き込むように構成す
るほうがより好ましい。その場合、以後の3次元形状抽
出処理において撮像レンズ21の歪曲の影響における精
度の劣化が補正できる。In this embodiment, the input process has been described assuming that the image pickup lens 21 is an ideal image forming system. However, for example, if the optical characteristic of the image pickup lens 21 is large, the A / D converter is used. It is more preferable to provide a processing unit that performs distortion correction on the digital image data output from 54 and write the output image data to the storage device 14. In that case, the accuracy deterioration due to the distortion of the imaging lens 21 can be corrected in the subsequent three-dimensional shape extraction processing.
【0021】また、撮像レンズ21の光学特性として光
量分布特性が画像中心部と周辺部とで大きく異なる場合
には、A/D変換器54から出力されるデジタル画像デ
ータに対して光量補正を行う処理部を設け、その出力画
像データを記憶装置14に書き込むよう構成するほうが
より好ましい。さらにA/D変換器54から出力される
デジタル画像データに対して例えばJPEG、MPEG
等の圧縮を行う処理部を設け、画像データを圧縮した
後、記憶装置14に書き込むよう構成し、以降の3次元
形状抽出処理で画像データを伸長して処理を行うように
すれば、記憶装置14の容量が節約できる。Further, when the light quantity distribution characteristics as the optical characteristics of the image pickup lens 21 are greatly different between the central portion and the peripheral portion of the image, the light quantity correction is performed on the digital image data output from the A / D converter 54. It is more preferable to provide a processing unit and write the output image data to the storage device 14. Furthermore, for digital image data output from the A / D converter 54, for example, JPEG, MPEG
If a processing unit for compressing the image data is provided and the image data is compressed and then written in the storage device 14, the image data is expanded and processed in the subsequent three-dimensional shape extraction process. 14 capacity can be saved.
【0022】次に、以上述べた入力処理により記憶装置
14に記憶されたデータから被計測物体3の3次元形状
を抽出する処理について述べる。3次元形状の抽出はコ
ンピュータ1の3次元形状抽出プログラムを入力装置1
3からのコマンド入力により起動することによって行わ
れる。図5に3次元形状抽出処理のブロック図を示す。
処理に用いるデータはN組のデジタル画像データ、視点
位置データ、視点移動量および光軸回転量データであ
る。尚、図5では視点位置データ、視点移動量および光
軸回転量データをまとめてパラメータとして示してい
る。また、画像データ#1 と画像データ#2 の変位を表
すパラメータはP(1,2)のように示す。Next, the processing for extracting the three-dimensional shape of the measured object 3 from the data stored in the storage device 14 by the above-described input processing will be described. The three-dimensional shape is extracted by inputting the three-dimensional shape extraction program of the computer 1 into the input device 1.
It is performed by starting up by command input from 3. FIG. 5 shows a block diagram of the three-dimensional shape extraction processing.
The data used for the processing are N sets of digital image data, viewpoint position data, viewpoint movement amount, and optical axis rotation amount data. Note that in FIG. 5, the viewpoint position data, the viewpoint movement amount, and the optical axis rotation amount data are collectively shown as parameters. The parameter indicating the displacement between the image data # 1 and the image data # 2 is shown as P (1,2).
【0023】61は画像前処理部で、画像データから被
計測体と特徴点群とを抽出する。62はパラメータ推定
部で、画像前処理部61の出力である2組の特徴点群と
パラメータとからパラメータの推定、修正を行う。63
は距離分布抽出部で、画像前処理部61の出力である2
組の被計測体画像とパラメータ推定部62の出力である
パラメータとから2組の被計測体画像で重複している部
分の距離分布を求める。64は距離情報統合部で、パラ
メータ推定部62の出力である2組のパラメータのうち
どちらか一方のパラメータに合わせて距離分布抽出部6
3の出力である2組の距離分布を統合する。65は3次
元形状抽出部で、統合された距離分布と統合時のパラメ
ータとから3次元形状を抽出し、記憶装置14に記憶す
る。Reference numeral 61 denotes an image preprocessing unit which extracts the object to be measured and the feature point group from the image data. A parameter estimating unit 62 estimates and corrects the parameters from the two sets of feature point groups and parameters output from the image preprocessing unit 61. 63
Is a distance distribution extraction unit, which is an output of the image preprocessing unit 61.
From the pair of measured object images and the parameter output from the parameter estimation unit 62, the distance distribution of the overlapping portion between the two measured object images is obtained. Reference numeral 64 denotes a distance information integration unit, which matches the distance distribution extraction unit 6 according to one of the two sets of parameters output from the parameter estimation unit 62.
The two sets of distance distributions, which are the outputs of 3, are integrated. Reference numeral 65 is a three-dimensional shape extraction unit that extracts a three-dimensional shape from the integrated distance distribution and the parameters at the time of integration and stores it in the storage device 14.
【0024】次に、以上の構成による処理の詳細な動作
について説明する。まず、図6の3次元形状入力の概念
図を用いて入力時の画像、パラメータの意味について説
明する。図6には時刻t1 とt2 の2つの時刻でのカメ
ラ2の様子を示してある。時刻t1 、t2 での視点をそ
れぞれO1 、O2 、座標系をX1 Y1 Z1 、X2 Y2Z
2 とする。画像データ#1 は時刻t1 で撮像され、画像
データ#2 は時刻t2で撮像される。また、パラメータ
のうち、視点位置データは図6のf(光軸方向成分)と
(Δx,Δy)(イメージセンサ22の水平・垂直方向
成分)であり、撮像中は変化しない。(図6のOi は画
像中心を示す)また、パラメータ#2 の視点移動量は図
6のTで示されるベクトルであり、O1 からO2 への移
動を表し、光軸回転量は図6ではRで示しており、座標
系X1 Y1 Z1 からX2 Y2 Z 2 への回転を表す。処理
の動作については、図6に示すような格子パターンのあ
る補正パッド4の上にボールが被計測物体3として置か
れている場合について説明する。Next, detailed operation of the processing by the above configuration
Will be described. First, the concept of three-dimensional shape input in FIG.
Explain the meaning of images and parameters at the time of input using figures
I will tell. In FIG. 6, time t1And t2Turtle at two times
The state of LA 2 is shown. Time t1, T2From the perspective
Each O1, O2, Coordinate system is X1Y1Z1, X2Y2Z
2And image data#1Is the time t1Imaged with
data#2Is the time t2Is imaged. Also the parameters
Of these, the viewpoint position data is the same as f (optical axis direction component) in FIG.
(Δx, Δy) (horizontal / vertical direction of the image sensor 22)
Component) and does not change during imaging. (O in FIG. 6iIs a picture
Also shows the image center) and parameter #2The amount of viewpoint movement is
6 is a vector indicated by T, and O1From O2Move to
The rotation amount of the optical axis is indicated by R in FIG.
System X1Y1Z1To X2Y2Z 2Represents a rotation to. processing
For the operation of, the grid pattern shown in FIG.
Place the ball as the measured object 3 on the correction pad 4
The case where it has been explained.
【0025】図7に画像前処理部61のブロック図を示
す。611は被計測体領域分割部であり、入力画像デー
タのエッジを検出して小領域に分割した後、輝度レベ
ル、テクスチャ等の特徴を利用して領域統合を行い、被
計測体領域と背景パターン領域とに分割する。そして、
被計測体領域のみの被計測体画像と背景領域のみの背景
画像とを生成する。被計測体画像と背景画像の例を図8
(b)(c)に示す。図8(a)は入力画像である。6
12は特徴点抽出部であり、被計測体領域分割部611
の出力である背景画像を微分し、ピーク位置を特徴点座
標として抽出する。イメージセンサ22上の点の空間座
標は視点を原点とした座標系ではZ座標は一定なので、
特徴点群としてイメージセンサ22の画像中心を原点と
した水平、垂直方向をX、Y座標としてその複数のX、
Y座標の組を出力する。FIG. 7 shows a block diagram of the image preprocessing unit 61. Reference numeral 611 denotes a measured object region dividing unit, which detects edges of input image data and divides it into small regions, and then performs region integration using features such as brightness level and texture to measure the measured object region and the background pattern. Divide into areas and. And
A measured object image of only the measured object area and a background image of only the background area are generated. FIG. 8 shows an example of the measured object image and the background image.
(B) and (c). FIG. 8A is an input image. 6
Reference numeral 12 is a feature point extraction unit, which is a measured object region dividing unit 611.
The background image which is the output of is differentiated and the peak position is extracted as the feature point coordinates. As for the spatial coordinates of the point on the image sensor 22, the Z coordinate is constant in the coordinate system with the viewpoint as the origin,
As the characteristic point group, the horizontal and vertical directions with the image center of the image sensor 22 as the origin are defined as X and Y coordinates, and the plurality of Xs are defined as
Output a set of Y coordinates.
【0026】図9にパラメータ推定部62のブロック図
を示す。621は対応点探索部であり、2組の画像デー
タから画像前処理部61で抽出された特徴点群間の対応
付けをカメラ専用処理装置5から記憶装置14に記憶さ
れた視点位置、視点移動量、光軸回転量のパラメータを
利用して行う。この動作について図10を用いて説明す
る。図10(a)(b)にそれぞれ画像領域内に特徴点
を表示した画像を示す。例えば、(a)の特徴点pに対
する特徴点を探索する場合、まず点pに対する(b)で
の対応可能領域(図でAを示す領域)を算出する。一般
に特定のカメラで撮った2組の画像の特徴点の対応付け
は、視点位置、視点移動量、光軸回転量と物体距離によ
って1対1に対応付けられる。FIG. 9 shows a block diagram of the parameter estimation unit 62. Reference numeral 621 denotes a corresponding point search unit that associates the feature point groups extracted by the image preprocessing unit 61 from the two sets of image data with the viewpoint position and viewpoint movement stored in the storage device 14 from the camera-dedicated processing device 5. Amount and optical axis rotation amount parameters are used. This operation will be described with reference to FIG. 10 (a) and 10 (b) show images in which the characteristic points are displayed in the image areas, respectively. For example, when searching for a feature point corresponding to the feature point p in (a), first, a corresponding area (area indicated by A in the drawing) in (b) for the point p is calculated. Generally, the feature points of two sets of images taken by a specific camera are associated one-to-one with the viewpoint position, the amount of movement of the viewpoint, the amount of rotation of the optical axis, and the object distance.
【0027】この関係を図11に示す。点pに対応する
物点Pは視点位置fと(Δx,Δy)、物体Zpによっ
て求められ、物点Pは視点移動量T、光軸回転量Rで座
標変換されて、視点位置fと(Δx,Δy)、物体Z
p′によって再び別の像点である点p′が求められる。
対応点探索部621では物体距離、視点移動量、光軸回
転量としておおよその下限値、上限値を与えてそれぞれ
対応点を計算し、その範囲によって対応可能領域Aを決
定する。そしてその中の特徴点を対応とするのである。
この時、対応可能領域A内に特徴点がなければ、対応点
はないとする。ほとんどの特徴点に対応点がない場合は
上記の下限値、上限値の範囲を広げる。また、特徴点が
複数存在する場合は、複数記憶しておく、以上の処理を
すべての特徴点に対して行った後、1対1に対応付けが
行えるよう対応付けの照合を行い、特徴点間の対応関係
の矛盾のない対応点対を出力する。This relationship is shown in FIG. The object point P corresponding to the point p is obtained by the viewpoint position f and (Δx, Δy) and the object Zp, and the object point P is coordinate-converted by the viewpoint movement amount T and the optical axis rotation amount R to obtain the viewpoint position f and ( Δx, Δy), object Z
Another image point p'is determined again by p '.
The corresponding point searching unit 621 calculates corresponding points by giving an approximate lower limit value and an upper limit value as the object distance, the viewpoint movement amount, and the optical axis rotation amount, and determines the applicable area A according to the range. Then, the feature points therein are corresponded.
At this time, if there is no feature point in the available area A, there is no corresponding point. If most feature points do not have corresponding points, expand the range of the above lower limit and upper limit. When there are a plurality of feature points, a plurality of feature points are stored, the above processing is performed for all the feature points, and then the matching of the feature points is performed so that the one-to-one correspondence can be performed. Outputs a pair of corresponding points having no contradiction in the corresponding relationship between them.
【0028】622はパラメータ最適化部である。この
パラメータ最適化部622では記憶装置14に記憶され
た視点移動量T、光軸回転量Rを初期値として、視点位
置fと(Δx,Δy)、対応点探索部621の出力であ
る2組の画像の特徴点の対応点対から視点移動量T、光
軸回転量Rと平面である背景パターン部の平面の式を推
定する。以下、この推定方法について簡単に述べる。画
像#1 の像面座標系、空間座標系をそれぞれx1 y1 、
X1 Y1 Z1 、画像#2 の像面座標系、空間座標系をそ
れぞれx2 y2 、X2 Y2 Z2 とし、初期値として与え
られる視点移動量T、光軸回転量Rをそれぞれ(Δ
X0 ,ΔY0 ,ΔZ0 )、(Δα0 ,Δβ0,Δγ0 )
とする。但し、視点移動量の各成分ΔX0 、 ΔY0 、Δ
Z0 はそれぞれX1 Y1 Z1 方向の移動量、光軸回転量
の各成分Δα0 、 Δβ0 、Δγ0 はそれぞれX1 Y1 Z
1 軸中心の回転角を表している。また、n組の対応点対
データが(x1i,y1i):(x2i,y2i)、i=1、
2、…、nのように求められているものとする。ここ
で、座標系X1 Y1 Z1 での背景パターン部の平面の式
をReference numeral 622 is a parameter optimization unit. In the parameter optimization unit 622, the viewpoint movement amount T and the optical axis rotation amount R stored in the storage device 14 are used as initial values, and the viewpoint position f and (Δx, Δy), and two sets of outputs of the corresponding point search unit 621 are output. From the pair of corresponding points of the feature points of the image, the viewpoint movement amount T, the optical axis rotation amount R, and the formula of the plane of the background pattern portion which is a plane are estimated. The estimation method will be briefly described below. The image plane coordinate system and the spatial coordinate system of image # 1 are x 1 y 1 ,
X 1 Y 1 Z 1 , the image plane coordinate system and the spatial coordinate system of the image # 2 are x 2 y 2 and X 2 Y 2 Z 2 , respectively, and the viewpoint moving amount T and the optical axis rotation amount R given as initial values are set. Each (Δ
X 0 , ΔY 0 , ΔZ 0 ), (Δα 0 , Δβ 0 , Δγ 0 )
And However, each component of the viewpoint movement amount ΔX 0 , ΔY 0 , Δ
Z 0 is the movement amount in the X 1 Y 1 Z 1 direction, and each component Δα 0 , Δβ 0 , and Δγ 0 of the optical axis rotation amount is X 1 Y 1 Z, respectively.
It represents the rotation angle around the center of one axis. Further, the n sets of corresponding point pair data are (x 1i , y 1i ): (x 2i , y 2i ), i = 1,
2, ..., N. Here, the formula of the plane of the background pattern part in the coordinate system X 1 Y 1 Z 1 is
【0029】[0029]
【数1】 [Equation 1]
【0030】と仮定する。この時、画像#1 の像面座標
系と空間座標系の関係はAssume that At this time, the relation between the image plane coordinate system of image # 1 and the spatial coordinate system is
【0031】[0031]
【数2】 [Equation 2]
【0032】画像#2 の像面座標系と空間座標系の関係
はThe relationship between the image plane coordinate system of image # 2 and the spatial coordinate system is
【0033】[0033]
【数3】 (Equation 3)
【0034】であり、空間座標系X1 Y1 Z1 とX2 Y
2 Z2 の関係はAnd the spatial coordinate systems X 1 Y 1 Z 1 and X 2 Y
The relationship of 2 Z 2
【0035】[0035]
【数4】 (Equation 4)
【0036】となる。ここで初期推定値として(ΔX,
ΔY,ΔZ)=(ΔX0 ,ΔY0 ,ΔZ0 )、(Δα,
Δβ,Δγ)=(Δα0 ,Δβ0 ,Δγ0 )を式(4)
に代入し、これらの式(1)〜式(4)より、画像#1
の点(x1i,y1i)に対応する画像#2 の点の推定値
(x2i′,y2i′)を導き、推定値(x2i′,y2i′)
と対応する点(x2i,y2i)との距離の自乗のn組の総
和が最小になるように平面の式、式(1)のパラメータ
a、b、cを求める。次に、ここで求まった平面の式、
式(1)のパラメータa、b、cを式(1)に代入し、
これらの式(1)〜式(2)より、画像#1 の点
(x1i,y1i)に対応する画像#2 の点の推定値
(x2i′,y2i′)を導き、推定値(x2i′,y2i′)
と対応する点(x2i,y2i)との距離の自乗のn組の総
和が最小になるように式(4)のパラメータ(ΔX,Δ
Y,ΔZ)、(Δα,Δβ,Δγ)を求める。It becomes Here, as the initial estimated value (ΔX,
ΔY, ΔZ) = (ΔX 0 , ΔY 0 , ΔZ 0 ), (Δα,
Δβ, Δγ) = (Δα 0 , Δβ 0 , Δγ 0 ) is given by Equation (4)
To the image # 1 from these equations (1) to (4).
The point (x 1i, y 1i) estimate of a point of the image # 2 corresponding to the (x 2i ', y 2i' ) leads to the estimated value (x 2i ', y 2i' )
And the parameters (a, b, c) of the equation (1) of the plane are calculated so that the total sum of n sets of squares of the distance between the point and the corresponding point (x 2i , y 2i ) is minimized. Next, the plane equation obtained here,
Substituting the parameters a, b, and c of equation (1) into equation (1),
From these equations (1) to (2), the estimated value (x 2i ′, y 2i ′) of the point of image # 2 corresponding to the point (x 1i , y 1i ) of image # 1 is derived , and the estimated value (X 2i ′, y 2i ′)
And the point (x 2i , y 2i ) corresponding to the parameter (ΔX, Δ)
Y, ΔZ), (Δα, Δβ, Δγ).
【0037】これらの処理を数回繰り返し、視点移動量
T、光軸回転量Rと平面である背景パターン部の平面の
式の推定値を得る。パラメータ推定部62ではこの視点
移動量、光軸回転量と入力された視点位置データを出力
する。本実施例ではこのパラメータ推定部62を設ける
ことにより、カメラ変位検出装置27の出力であるカメ
ラ変位信号の精度が悪い場合でも背景パターン部が平面
であるという被計測物体3の一部の3次元形状の既知情
報を利用してパラメータ推定部62で視点移動量、光軸
回転量の修正を行うので、以降の3次元形状抽出処理で
高精度の出力データが得られる。These processes are repeated several times to obtain the estimated amount of the viewpoint movement amount T, the optical axis rotation amount R and the formula of the plane of the background pattern portion which is a plane. The parameter estimation unit 62 outputs the viewpoint movement amount and the optical axis rotation amount and the inputted viewpoint position data. In the present embodiment, by providing this parameter estimation unit 62, even if the accuracy of the camera displacement signal output from the camera displacement detection device 27 is poor, the three-dimensional part of the measured object 3 in which the background pattern portion is flat. Since the parameter estimation unit 62 corrects the amount of movement of the viewpoint and the amount of rotation of the optical axis using known shape information, highly accurate output data can be obtained in the subsequent three-dimensional shape extraction processing.
【0038】また、本実施例では推定するパラメータと
して視点移動量、光軸回転量の場合について説明した
が、例えば視点位置データであるfや(Δx,Δy)の
精度が悪い場合には、上述した推定方法と同様の方法で
視点位置データも推定することが可能である。これらの
光学的配置を表すパラメータを推定することにより、撮
像レンズ21の繰り出し位置がレンズ位置信号s2とし
て正確に検出できない場合や撮像レンズ21とイメージ
センサ22との位置合わせが精度よくできない場合にお
いても、以降の3次元形状抽出処理で高精度の出力デー
タが得られる。また、本実施例では背景パターン部が平
面であるという既知情報を用いてパラメータを推定した
が、球面等の別形状であっても同様にパラメータの推定
が行えることは言うまでもない。In this embodiment, the viewpoint movement amount and the optical axis rotation amount are explained as the parameters to be estimated. However, for example, when the accuracy of the viewpoint position data f or (Δx, Δy) is bad, The viewpoint position data can be estimated by the same method as the above estimation method. By estimating the parameters representing these optical arrangements, even when the extended position of the image pickup lens 21 cannot be accurately detected as the lens position signal s2 or when the image pickup lens 21 and the image sensor 22 cannot be accurately aligned. , High-precision output data can be obtained by the subsequent three-dimensional shape extraction processing. Further, in the present embodiment, the parameters are estimated using the known information that the background pattern portion is a flat surface, but it goes without saying that the parameters can be similarly estimated even if the background pattern portion has another shape such as a spherical surface.
【0039】図12に距離分布抽出部63のブロック図
を示す。631はマッチング処理部あり、2組の画像デ
ータから画像前処理部61で抽出された被計測体画像間
の対応付けを視点位置、視点移動量、光軸回転量のパラ
メータを利用して行う。この時、視点移動量、光軸回転
量のパラメータはパラメータ推定部62の出力を用い
る。そして、パラメータ推定部62の対応点探索部62
1と同様に物体距離、視点移動量、光軸回転量としてお
およその下限値、上限値を与えてそれぞれ対応点を計算
し、その範囲によって対応可能領域を決定し、対応点を
求める。この時、視点移動量、光軸回転量のパラメータ
の下限値、上限値は対応点探索部621のパラメータの
下限値、上限値に比べると範囲が狭く設定されている。
これは、マッチング処理部631で用いるパラメータは
特徴点の対応付けより推定されたものなので対応点探索
部621で用いるパラメータより精度がよいからであ
る。FIG. 12 shows a block diagram of the distance distribution extraction unit 63. Reference numeral 631 denotes a matching processing unit, which correlates the measured object images extracted by the image preprocessing unit 61 from the two sets of image data by using the parameters of the viewpoint position, the viewpoint movement amount, and the optical axis rotation amount. At this time, the output of the parameter estimation unit 62 is used as the parameters of the amount of movement of the viewpoint and the amount of rotation of the optical axis. Then, the corresponding point search unit 62 of the parameter estimation unit 62
Similar to 1, the corresponding points are calculated by giving the lower limit value and the upper limit value as the object distance, the viewpoint movement amount, and the optical axis rotation amount, respectively, and the corresponding points are determined by the range to obtain the corresponding points. At this time, the lower limit value and the upper limit value of the parameters of the viewpoint movement amount and the optical axis rotation amount are set to be narrower than the lower limit value and the upper limit value of the parameter of the corresponding point searching unit 621.
This is because the parameter used in the matching processing unit 631 is estimated from the association of the feature points, and is therefore more accurate than the parameter used in the corresponding point searching unit 621.
【0040】また、物体距離のパラメータの下限値、上
限値は対応点探索部621のパラメータの下限値、上限
値に比べると範囲が十分広く設定されている。これは対
応点探索部621対応点を求める被計測体3は平面であ
るのに対し、マッチング処理部631で対応点を求める
被計測体の形状は未知であるからである。この時、まず
画像#1 の被写体領域の小領域がテンプレートとして抽
出され、テンプレートに位置オフセットをかけて平行移
動させて、画像#2 の対応可能領域の範囲で画像データ
とのテンプレートマッチングが行われ、画像#1 の座標
(x1 ,y1 )に対応する画像#2 の座標(x2 ,
y2 )が検出される。このテンプレートマッチングの処
理を画像#1 の被写体領域の画像データ分だけ行い、被
計測体領域での対応点対として出力する。Further, the lower limit value and the upper limit value of the object distance parameter are set to be sufficiently wider than the lower limit value and the upper limit value of the parameter of the corresponding point searching unit 621. This is because the object 3 to be searched for the corresponding points is a plane, whereas the shape of the object to be searched for by the matching processing unit 631 is unknown. At this time, first, a small area of the subject area of image # 1 is extracted as a template, and the template is positionally offset and moved in parallel to perform template matching with the image data within the range of the applicable area of image # 2. , image # 1 of the coordinates (x 1, y 1) image # 2 of coordinates corresponding to the (x 2,
y 2 ) is detected. This template matching process is performed only for the image data of the subject region of image # 1 , and is output as a pair of corresponding points in the measured body region.
【0041】632は距離算出部であり、視点位置、視
点移動量、光軸回転量のパラメータと対応点探索部63
1の出力である対応点対により距離を算出する。すなわ
ち、画像#1 の被写体領域の各点での距離Z1 を式
(2)〜式(3)により求める。この時、式(2)、式
(3)のx、yそれぞれの関係式から距離を求めて、x
の関係式で求めた距離とyの関係で求めた距離を平均す
る。そして、このZ1 と式(2)によりX1 、Y1 を求
めて、座標(X1 ,Y1 ,Z1 )を対応点対の数だけ出
力する。Reference numeral 632 is a distance calculating unit, which is a viewpoint position, viewpoint moving amount, optical axis rotation amount parameter, and corresponding point searching unit 63.
The distance is calculated by the pair of corresponding points which is the output of 1. That is, the distance Z 1 at each point in the subject area of the image # 1 is obtained by the equations (2) to (3). At this time, the distance is obtained from the relational expressions of x and y in the equations (2) and (3), and x
The average of the distance obtained by the relational expression and the distance obtained by the relation of y is averaged. Then, X 1 and Y 1 are obtained from this Z 1 and the equation (2), and the coordinates (X 1 , Y 1 , Z 1 ) are output by the number of corresponding point pairs.
【0042】図13に距離情報統合部64のブロック図
を示す。641は距離情報メモリである。ここで、画像
#1 と画像#2 からパラメータ推定部62で求めたパラ
メータをP(1,2)、距離分布算出部63で求めた距
離分布をZ(1,2)のように表すと、距離分布Z
(1,2)と距離分布Z(2,3)を統合する場合、距
離分布Z(1,2)はそのまま距離情報メモリ641に
記憶される。FIG. 13 shows a block diagram of the distance information integration unit 64. Reference numeral 641 is a distance information memory. Here, if the parameters calculated by the parameter estimation unit 62 from the image # 1 and the image # 2 are expressed as P (1,2) and the distance distribution calculated by the distance distribution calculation unit 63 is expressed as Z (1,2), Distance distribution Z
When (1, 2) and the distance distribution Z (2, 3) are integrated, the distance distribution Z (1, 2) is stored in the distance information memory 641 as it is.
【0043】642は座標変換部であり、距離分布Z
(2,3)をパラメータP(1,2)を用いて、パラメ
ータP(1,2)の座標系に変換する。すなわち、距離
分布Z(2,3)のデータである座標(X2 ,Y2 ,Z
2 )から式(4)の逆変換により座標(X1 ,Y1 ,Z
1 )を得る。そして、変換された距離分布Z(2,3)
が距離情報メモリ641に記憶される。643はパラメ
ータ統合部であり、パラメータP(1,2)とP(2,
3)を統合して、パラメータP(1,3)を出力する。
式より、空間座標系、X1 Y1 Z1 とX3 Y3 Z3 の関
係は式(5)となる。但し、パラメータP(1,2)、
P(2,3)それぞれの視点移動量を(ΔX1 ,Δ
Y1 ,ΔZ1 )、(ΔX2 ,ΔY2 ,ΔZ2 )、、光軸
回転量を(Δα 1 ,Δβ1 ,Δγ1 )、(Δα2 ,Δβ
2 ,Δγ2 )、とする。Reference numeral 642 is a coordinate conversion unit for the distance distribution Z
Parameter (2,3) is set using the parameter P (1,2).
The coordinate system of the data P (1,2) is converted. Ie distance
Coordinates (X which is data of distribution Z (2,3)2, Y2, Z
2) To the coordinate (X1, Y1, Z
1Get) Then, the transformed distance distribution Z (2,3)
Are stored in the distance information memory 641. 643 is a parameter
Data integration unit, which includes parameters P (1, 2) and P (2,
3) is integrated and the parameter P (1,3) is output.
From the formula, the spatial coordinate system, X1Y1Z1And XThreeYThreeZThreeSeki
The formula is (5). However, the parameters P (1,2),
The viewpoint movement amount of each of P (2, 3) is (ΔX1, Δ
Y1, ΔZ1), (ΔX2, ΔY2, ΔZ2),,optical axis
The rotation amount is (Δα 1, Δβ1, Δγ1), (Δα2, Δβ
2, Δγ2), And.
【0044】[0044]
【数5】 (Equation 5)
【0045】従って、パラメータ統合部643は式
(5)の[ ]でくくった第2、第3項の和を視点移動
量、(Δα1 +Δα2 ,Δβ1 +Δβ2 ,Δγ1 +Δγ
2 )を光軸回転量として出力する。他の距離情報の統合
においても同等の処理が行われ、N組の画像データが入
力された場合、N−2回の処理で入力画像から求められ
た全ての距離分布が統合される。Therefore, the parameter integration unit 643 calculates the sum of the second and third terms enclosed by [] in the equation (5) as the viewpoint movement amount, (Δα 1 + Δα 2 , Δβ 1 + Δβ 2 , Δγ 1 + Δγ
2 ) is output as the optical axis rotation amount. Similar processing is performed in integration of other distance information, and when N sets of image data are input, all distance distributions obtained from the input image are integrated in N-2 times of processing.
【0046】図14に3次元形状抽出部65のブロック
図を示す。651は中心点抽出部であり、最終段の距離
情報統合部64の出力である統合された距離分布から被
計測物体3の表面が分布する範囲を求め、その範囲の中
心点を出力する。652は物体モデル形成部であり、統
合された距離分布を距離情報統合部64の出力である統
合時のパラメータのうち視点位置データを用いて、中心
点抽出部651の出力である中心点を原点とした極座標
に変換する。FIG. 14 shows a block diagram of the three-dimensional shape extraction unit 65. A central point extraction unit 651 obtains a range in which the surface of the measured object 3 is distributed from the integrated distance distribution output from the distance information integration unit 64 at the final stage, and outputs the central point of the range. An object model forming unit 652 uses the viewpoint position data of the integrated distance distribution output from the distance information integrating unit 64 for the integrated distance distribution, and uses the center point output from the center point extracting unit 651 as the origin. Is converted to polar coordinates.
【0047】例えば、ボールを被計測物体3として入力
した場合の座標変換の様子を図15に示す。すなわち、
図15(a)に示すような距離情報を表すO1 を原点と
したX1 Y1 Z1 座標系の空間座標(X1 ,Y1 ,
Z1 )を、図15(b)に示すような原点移動のみ行っ
て中心点Oを原点としたXYZ座標系の空間座標に変換
し、さらに極座標系の空間座標(γ,θ,φ)に変換す
る。そして、入力装置13から指定する3次元形状の解
像度に従いメッシュ状の領域ごとに極座標に変換された
データを平均して被計測物体3の3次元形状データとし
て記憶装置14に記憶する。このように本実施例では3
次元形状抽出部65によって距離情報を極座標に変換し
て3次元形状データとして出力するので被計測物体3の
表面形状を効率よく記憶しておける。For example, FIG. 15 shows a state of coordinate conversion when a ball is input as the measured object 3. That is,
Spatial coordinates (X 1 , Y 1 , and X 1 Y 1 Z 1 coordinate system whose origin is O 1 representing distance information as shown in FIG.
Z 1 ) is converted to the spatial coordinates of the XYZ coordinate system with the center point O as the origin by only moving the origin as shown in FIG. 15B, and further converted into the spatial coordinates (γ, θ, φ) of the polar coordinate system. Convert. Then, the data converted into polar coordinates for each mesh-shaped area according to the resolution of the three-dimensional shape designated by the input device 13 is averaged and stored in the storage device 14 as the three-dimensional shape data of the measured object 3. Thus, in this embodiment, 3
Since the distance information is converted into polar coordinates by the three-dimensional shape extraction unit 65 and is output as three-dimensional shape data, the surface shape of the measured object 3 can be efficiently stored.
【0048】図16に、本発明の第2の実施の形態によ
る3次元形状抽出装置における3次元形状抽出の概念お
よび基本構成を示す。FIG. 16 shows the concept and basic configuration of three-dimensional shape extraction in the three-dimensional shape extraction device according to the second embodiment of the present invention.
【0049】図16(a)に示すように使用者は壁面の
ような平面の背景をバックにカメラ7で被計測物体3を
スキャンしながら画像入力を行う。すなわち、屋外で画
像入力を行う際には平面の背景パターンを第1の実施の
形態における補正パッド4の代わりに用いている。撮像
された画像はカメラ2で処理され、距離データとして着
脱可能なICカード等の記憶媒体8に記憶される。そし
て、図16(b)に示すように、カメラ7から記憶媒体
8を脱着し、コンピュータ1に装着する。コンピュータ
1は内部の3次元形状抽出プログラムによって距離デー
タから被計測物体3の3次元形状データを得る。カメラ
7はおおよそ第1の実施の形態におけるカメラ2、カメ
ラ専用処理装置5、コンピュータ1の処理装置11の処
理のうち、画像前処理部61、パラメータ推定部62、
距離分布抽出部63、距離情報統合部64の機能と同等
の機能を持ち、コンピュータ1は内部の3次元形状抽出
プログラムはコンピュータ1の処理装置11の処理のう
ち3次元形状抽出部65と同等の機能を持つ。As shown in FIG. 16 (a), the user inputs an image while the camera 7 scans the measured object 3 against the background of a flat surface such as a wall surface. That is, when an image is input outdoors, a flat background pattern is used instead of the correction pad 4 in the first embodiment. The captured image is processed by the camera 2 and stored as distance data in a removable storage medium 8 such as an IC card. Then, as shown in FIG. 16B, the storage medium 8 is detached from the camera 7 and attached to the computer 1. The computer 1 obtains the three-dimensional shape data of the measured object 3 from the distance data by the internal three-dimensional shape extraction program. The camera 7 is the image preprocessing unit 61, the parameter estimation unit 62, among the processes of the camera 2, the camera-dedicated processing device 5, and the processing device 11 of the computer 1 according to the first embodiment.
The computer 1 has the same functions as those of the distance distribution extraction unit 63 and the distance information integration unit 64, and the computer 1 has an internal three-dimensional shape extraction program equivalent to the three-dimensional shape extraction unit 65 of the processing of the processing device 11 of the computer 1. With function.
【0050】図17はカメラ7の構成を示すブロック図
である。71は撮像レンズ、72はイメージセンサ、7
3はサンプルホールド回路、74はオートゲインコント
ロール回路、75はガンマ補正回路、76はA/D変換
器、であり、上記の各部71〜76によりデジタル画像
データを形成する。77は焦点検出装置、78はレンズ
駆動部、79はレンズ駆動回路であり、上記各部77〜
79により画像のピント合わせを行う。80はカメラ変
位検出装置であり、カメラの位置および姿勢の変位を検
出する。81はシャッタである。82はレンズ情報記憶
部で、撮像レンズ71固有の情報を記憶している。83
は視点位置算出回路、84は視点変位算出回路であり、
パラメータ(視点位置、視点移動量、光軸回転角)を出
力する。FIG. 17 is a block diagram showing the structure of the camera 7. 71 is an imaging lens, 72 is an image sensor, 7
Reference numeral 3 is a sample hold circuit, 74 is an automatic gain control circuit, 75 is a gamma correction circuit, and 76 is an A / D converter, and digital image data is formed by the respective units 71 to 76. Reference numeral 77 is a focus detection device, 78 is a lens drive unit, and 79 is a lens drive circuit.
The image is focused by 79. Reference numeral 80 denotes a camera displacement detection device that detects displacement of the position and orientation of the camera. Reference numeral 81 is a shutter. Reference numeral 82 denotes a lens information storage unit that stores information unique to the imaging lens 71. 83
Is a viewpoint position calculation circuit, 84 is a viewpoint displacement calculation circuit,
Parameters (viewpoint position, viewpoint movement amount, optical axis rotation angle) are output.
【0051】90は制御部であり、画像データ、パラメ
ータ等のデータの制御を行う。85はパラメータととも
にデジタル画像データを記憶しておく画像メモリであ
る。86は画像前処理部で、画像データから被計測体画
像と特徴点群とを抽出する。87はパラメータ推定部
で、画像前処理部86の出力である2組の特徴点群とパ
ラメータとからパラメータの推定、修正を行う。88は
距離分布抽出部で、画像前処理部86の出力である2組
の被計測体画像とパラメータ推定部87の出力であるパ
ラメータとから2組の被計測体画像で被計測物体3が重
複している部分での距離分布を求める。89は距離情報
統合部で、パラメータ推定部62の出力である2組のパ
ラメータのうちどちらか一方のパラメータに合わせて距
離分布抽出部63の出力である2組の距離分布を統合す
る。この統合された距離分布と統合時のパラメータが記
憶媒体8に記憶される。Reference numeral 90 is a control unit, which controls data such as image data and parameters. An image memory 85 stores digital image data together with parameters. An image preprocessing unit 86 extracts the measured object image and the feature point group from the image data. A parameter estimation unit 87 estimates and corrects the parameters from the two sets of feature point groups and parameters output from the image preprocessing unit 86. Reference numeral 88 is a distance distribution extraction unit, and the measured object 3 overlaps with two sets of measured object images from the two sets of measured object images output from the image preprocessing unit 86 and the parameters output from the parameter estimation unit 87. Find the distance distribution in the part where A distance information integration unit 89 integrates the two sets of distance distributions output from the distance distribution extraction unit 63 in accordance with either one of the two sets of parameters output from the parameter estimation unit 62. The integrated distance distribution and the parameters at the time of integration are stored in the storage medium 8.
【0052】なお、本実施の形態におけるブロックで第
1の実施の形態と同名のものは同一の機能を持つ。例え
ば画像間処理部86、パラメータ推定部87、距離分布
抽出部88、距離情報統合部89はそれぞれ図7の画像
前処理部61、図9のパラメータ推定部62、図12の
距離分布抽出部63、図13の距離情報統合部64に示
した機能を持つ。The blocks having the same names as those in the first embodiment have the same functions as those in the first embodiment. For example, the inter-image processing unit 86, the parameter estimation unit 87, the distance distribution extraction unit 88, and the distance information integration unit 89 are the image preprocessing unit 61 of FIG. 7, the parameter estimation unit 62 of FIG. 9, and the distance distribution extraction unit 63 of FIG. 12, respectively. , And has the function shown in the distance information integration unit 64 in FIG.
【0053】[0053]
【発明の効果】以上説明したように、請求項1の発明に
よれば、検知手段により撮像手段の位置および姿勢の変
化を検知すると共に、上記撮像手段で撮像した複数の被
計測物体の画像と上記検知手段の出力とからパラメータ
推定手段により撮像パラメータを推定し、上記複数の被
計測物体の画像と上記パラメータ推定手段の出力とから
上記撮像手段と被計測物体との距離を算出するように構
成したので、わずらわしい設定を行わずに簡単に被計測
物体の3次元形状を抽出することができる。特にパラメ
ータ推定手段を設けたことにより、高精度に被計測物体
の3次元形状を求めることができる。As described above, according to the first aspect of the present invention, the change of the position and the posture of the image pickup means is detected by the detection means, and the plurality of images of the object to be measured picked up by the image pickup means are detected. A parameter estimating means estimates an imaging parameter from the output of the detecting means, and a distance between the imaging means and the measured object is calculated from the images of the plurality of measured objects and the output of the parameter estimating means. Therefore, it is possible to easily extract the three-dimensional shape of the measured object without making a troublesome setting. Particularly, by providing the parameter estimating means, the three-dimensional shape of the measured object can be obtained with high accuracy.
【0054】また、請求項2の発明によれば、上記撮像
パラメータが上記検知手段の出力である上記撮像手段の
位置および姿勢の変化と上記撮像手段の光学的配置との
少なくとも1つを含むようにしたので、カメラの位置決
めの精度が悪い場合でも、高精度に被計測物体の3次元
形状を求めることができる。According to the second aspect of the present invention, the image pickup parameter includes at least one of a change in the position and orientation of the image pickup means, which is an output of the detection means, and an optical arrangement of the image pickup means. Therefore, even if the positioning accuracy of the camera is poor, the three-dimensional shape of the measured object can be obtained with high accuracy.
【0055】また、請求項3の発明によれば、上記パラ
メータ推定手段が、上記撮像手段によって得た複数の画
像のうち、被計測物体の3次元形状が既知の領域での対
応付けをもとに撮像パラメータを推定するようにしたの
で、物体の3次元形状をさらに精度良く求めることがで
きる。According to the third aspect of the present invention, the parameter estimating means determines the correspondence among the plurality of images obtained by the image pickup means in the area where the three-dimensional shape of the measured object is known. Since the imaging parameter is estimated, the three-dimensional shape of the object can be obtained with higher accuracy.
【図1】本発明の第1の実施の形態による3次元形状抽
出装置の概念を示す構成図である。FIG. 1 is a configuration diagram showing a concept of a three-dimensional shape extraction device according to a first embodiment of the present invention.
【図2】第1の実施の形態による3次元形状抽出装置の
基本的な構成図である。FIG. 2 is a basic configuration diagram of a three-dimensional shape extraction device according to the first embodiment.
【図3】第1の実施の形態によるカメラの構成を示すブ
ロック図である。FIG. 3 is a block diagram showing a configuration of a camera according to the first embodiment.
【図4】第1の実施の形態によるカメラ専用処理装置の
構成を示すブロック図である。FIG. 4 is a block diagram showing a configuration of a camera-dedicated processing device according to the first embodiment.
【図5】本発明の第1の実施の形態による3次元形状抽
出処理を示すブロック図である。FIG. 5 is a block diagram showing a three-dimensional shape extraction process according to the first embodiment of the present invention.
【図6】3次元形状入力の概念を示す構成図である。FIG. 6 is a configuration diagram showing the concept of three-dimensional shape input.
【図7】第1の実施の形態による画像前処理部のブロッ
ク図である。FIG. 7 is a block diagram of an image preprocessing unit according to the first embodiment.
【図8】被写体領域分割処理を説明する構成図である。FIG. 8 is a configuration diagram illustrating subject area division processing.
【図9】第1の実施の形態によるパラメータ推定部のブ
ロック図である。FIG. 9 is a block diagram of a parameter estimation unit according to the first embodiment.
【図10】対応点探索処理を説明する構成図である。FIG. 10 is a configuration diagram illustrating corresponding point search processing.
【図11】像点と物点との関係を示す構成図である。FIG. 11 is a configuration diagram showing a relationship between an image point and an object point.
【図12】第1の実施の形態による距離分布抽出部のブ
ロック図である。FIG. 12 is a block diagram of a distance distribution extraction unit according to the first embodiment.
【図13】第1の実施の形態による距離情報統合部のブ
ロック図である。FIG. 13 is a block diagram of a distance information integration unit according to the first embodiment.
【図14】第1の実施の形態による3次元形状抽出部の
ブロック図である。FIG. 14 is a block diagram of a three-dimensional shape extraction unit according to the first embodiment.
【図15】3次元形状抽出処理における座標変換を説明
する構成図である。FIG. 15 is a configuration diagram illustrating coordinate conversion in a three-dimensional shape extraction process.
【図16】本発明の第2の実施の形態による3次元形状
抽出装置の概念と構成を示す構成図である。FIG. 16 is a configuration diagram showing the concept and configuration of a three-dimensional shape extraction device according to a second embodiment of the present invention.
【図17】第2の実施の形態によるカメラの構成を示す
ブロック図である。FIG. 17 is a block diagram showing a configuration of a camera according to a second embodiment.
1 コンピュータ 2 カメラ 3 被計測物体 4 補正パッド 5 カメラ専用処理装置 11 処理装置 24、77 焦点検出装置 27、80 カメラ変位検出装置 56、83 視点位置算出回路 57、84 視点変位算出回路 63、87 パラメータ推定部 65 3次元形状抽出部 1 Computer 2 Camera 3 Object to be Measured 4 Correction Pad 5 Processing Device for Camera 11 Processing Device 24, 77 Focus Detection Device 27, 80 Camera Displacement Detection Device 56, 83 Viewpoint Position Calculation Circuit 57, 84 Viewpoint Displacement Calculation Circuit 63, 87 Parameters Estimator 65 Three-dimensional shape extractor
───────────────────────────────────────────────────── フロントページの続き (72)発明者 真継 優和 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 倉橋 直 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 石川 基博 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Masakazu Yukazu 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Nao Kurahashi 3-30-2 Shimomaruko, Ota-ku, Tokyo Kya Non-Incorporated (72) Inventor Motohiro Ishikawa 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc.
Claims (3)
段と、 上記撮像手段から得られる少なくとも撮像位置が異りか
つ画像の一部が重複した複数の画像と上記検知手段の出
力とから撮像パラメータを推定するパラメータ推定手段
と、 上記複数の画像と上記パラメータ推定手段の出力とから
上記撮像手段と被計測物体との距離を算出する距離算出
手段とを備えた3次元形状抽出装置。1. An image pickup unit for picking up an image of an object to be measured, a detection unit for detecting a change in the position and orientation of the image pickup unit, and at least an image pickup position obtained from the image pickup unit is different and a part of an image is overlapped. Parameter estimation means for estimating an imaging parameter from the plurality of images and the output of the detection means, and distance calculation for calculating the distance between the imaging means and the measured object from the plurality of images and the output of the parameter estimation means. And a three-dimensional shape extraction device including means.
出力である上記撮像手段の位置および姿勢の変化と上記
撮像手段の光学的配置との少なくとも1つを含むことを
特徴とする請求項1記載の3次元形状抽出装置。2. The image pickup parameter includes at least one of a change in position and orientation of the image pickup means, which is an output of the detection means, and an optical arrangement of the image pickup means. 3D shape extraction device.
段から得られる複数の画像のうち、上記被計測物体の3
次元形状が既知の領域での対応付けに基づいて上記撮像
パラメータを推定することを特徴とする請求項1記載の
3次元形状抽出装置。3. The parameter estimating means selects 3 of the measured objects from among the plurality of images obtained from the imaging means.
The three-dimensional shape extraction device according to claim 1, wherein the imaging parameter is estimated based on correspondence in a region having a known three-dimensional shape.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP7199893A JPH0949714A (en) | 1995-08-04 | 1995-08-04 | 3D shape extraction device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP7199893A JPH0949714A (en) | 1995-08-04 | 1995-08-04 | 3D shape extraction device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0949714A true JPH0949714A (en) | 1997-02-18 |
Family
ID=16415366
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP7199893A Pending JPH0949714A (en) | 1995-08-04 | 1995-08-04 | 3D shape extraction device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0949714A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002541568A (en) * | 1999-03-31 | 2002-12-03 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method for detecting the amount of movement of a pixel block from a first image to a second image of a scene |
| JP2009258058A (en) * | 2008-04-21 | 2009-11-05 | National Institute Of Advanced Industrial & Technology | Three-dimensional object position measuring device |
| JP2010210586A (en) * | 2009-03-12 | 2010-09-24 | Omron Corp | Derivation method of parameter of three-dimensional measuring processing, and three-dimensional visual sensor |
| US7831086B2 (en) | 2002-06-03 | 2010-11-09 | Sony Corporation | Image processing device and method, program, program recording medium, data structure, and data recording medium |
-
1995
- 1995-08-04 JP JP7199893A patent/JPH0949714A/en active Pending
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002541568A (en) * | 1999-03-31 | 2002-12-03 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method for detecting the amount of movement of a pixel block from a first image to a second image of a scene |
| US7831086B2 (en) | 2002-06-03 | 2010-11-09 | Sony Corporation | Image processing device and method, program, program recording medium, data structure, and data recording medium |
| JP2009258058A (en) * | 2008-04-21 | 2009-11-05 | National Institute Of Advanced Industrial & Technology | Three-dimensional object position measuring device |
| JP2010210586A (en) * | 2009-03-12 | 2010-09-24 | Omron Corp | Derivation method of parameter of three-dimensional measuring processing, and three-dimensional visual sensor |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP0782100B1 (en) | Three-dimensional shape extraction apparatus and method | |
| US6823080B2 (en) | Three-dimensional information processing apparatus and method | |
| JP3347508B2 (en) | Captured image processing device and captured image processing method | |
| CN111609801B (en) | A method and system for measuring the thickness of multi-size workpieces based on machine vision | |
| US8179448B2 (en) | Auto depth field capturing system and method thereof | |
| JP2001320652A (en) | Projector | |
| CN110926330A (en) | Image processing apparatus, image processing method, and program | |
| JPH05303629A (en) | Shape synthesis method | |
| CN118918265A (en) | Three-dimensional reconstruction method and system based on monocular camera and line laser | |
| JP2001264037A (en) | Camera calibration method and apparatus, and storage medium storing camera calibration program | |
| JPH1079029A (en) | Stereoscopic information detection method and apparatus | |
| JPH1144533A (en) | Preceding vehicle detection device | |
| JPH1091790A (en) | Three-dimensional shape extraction method and apparatus, and storage medium | |
| JPH0949714A (en) | 3D shape extraction device | |
| JPH09145318A (en) | 3D measuring device | |
| JPH09305796A (en) | Image information processing device | |
| JP3221384B2 (en) | 3D coordinate measuring device | |
| JP4324271B2 (en) | Image processing apparatus and method | |
| JPH09145368A (en) | Object tracking method using stereo image | |
| JP2001319224A (en) | Three-dimensional object detection device, three-dimensional object detection method, and recording medium | |
| JP2809348B2 (en) | 3D position measuring device | |
| JP2023146927A (en) | Computer program and terminal device | |
| KR102049396B1 (en) | Method for generating rear around view using stereo camera | |
| JP2004170277A (en) | 3-dimensional measurement method, 3-dimensional measurement system, image processing apparatus, and computer program | |
| JPH09231371A (en) | Image information input device and image information input method |