JPH0946730A - 3D shape extraction device - Google Patents

3D shape extraction device

Info

Publication number
JPH0946730A
JPH0946730A JP7193596A JP19359695A JPH0946730A JP H0946730 A JPH0946730 A JP H0946730A JP 7193596 A JP7193596 A JP 7193596A JP 19359695 A JP19359695 A JP 19359695A JP H0946730 A JPH0946730 A JP H0946730A
Authority
JP
Japan
Prior art keywords
dimensional shape
image pickup
subject
image
extraction device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7193596A
Other languages
Japanese (ja)
Inventor
Tatsushi Katayama
達嗣 片山
Masayoshi Sekine
正慶 関根
Motohiro Ishikawa
基博 石川
Sunao Kurahashi
直 倉橋
Shigeki Okauchi
茂樹 岡内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7193596A priority Critical patent/JPH0946730A/en
Priority to US08/686,683 priority patent/US6640004B2/en
Publication of JPH0946730A publication Critical patent/JPH0946730A/en
Priority to US10/429,686 priority patent/US7164786B2/en
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】 物体の立体形状情報を高い精度で抽出する。 【解決手段】 ズームレンズを有する撮影レンズ100
R、100Lを通じてイメージセンサ102R、102
Lで撮像した画像を映像信号処理部104R、104L
で処理した信号から被写体分離部105R、105Lに
より主被写体とその背面とを分離する。これを画像処理
部220に送り、ここで撮像時の各パラメータに基づい
て主被写体の立体形状を抽出する。上記各パラメータ
は、各イメージセンサ102R、102Lが撮像する主
被写体が重複する撮像領域に収まるように、かつ主被写
体が焦点深度内に収まるように自動的に調整される。
(57) [Abstract] [PROBLEMS] To extract three-dimensional shape information of an object with high accuracy. A photographing lens having a zoom lens.
Image sensor 102R, 102 through R, 100L
The image picked up by the L image signal processing unit 104R, 104L
The main subject and the back surface thereof are separated from the signal processed in step 1 by the object separation units 105R and 105L. This is sent to the image processing unit 220, where the three-dimensional shape of the main subject is extracted based on each parameter at the time of imaging. The above parameters are automatically adjusted so that the main subjects imaged by the image sensors 102R and 102L fit within the overlapping imaging regions and the main subject fits within the depth of focus.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、CGやCAD等に
おいて利用される立体形状モデルの生成に必要な物体や
環境の3次元情報を抽出する立体形状抽出装置に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape extraction device for extracting three-dimensional information of an object or environment necessary for generating a three-dimensional shape model used in CG, CAD and the like.

【0002】[0002]

【従来の技術】従来より、物体の3次元形状を求める技
術として例えばテレビジョン学会誌、Vo1.45、N
o.4(1991)、pp.453−460に記載され
ているものがある。上記文献に記載されているように物
体の3次元形状を求める方法としては、大別して受動的
手法と能動的手法とがある。受動的手法の代表的なもの
がステレオ画像法であり、2台のカメラを用いて三角測
量を行うものである。この方法では左右の画像から同じ
ものが写っている場所を探索し、その位置のずれ量から
被写体の3次元位置を計測する。また、能動的手法の代
表的なものとして、光を投影して反射して帰ってくるま
での時間を計測して距離を求める光レーダ型のレンジフ
ァインダや、スリット状の光パターンを投影して被写体
に写るパターン形状の変位から3次元形状を測定するス
リット光投影法などがある。
2. Description of the Related Art Conventionally, as a technique for obtaining a three-dimensional shape of an object, for example, Journal of Television Society, Vo1.45, N.
o. 4 (1991), pp. 453-460. The methods for obtaining the three-dimensional shape of an object as described in the above document are roughly classified into a passive method and an active method. A typical passive method is a stereo image method in which triangulation is performed using two cameras. In this method, a place where the same thing is seen is searched from the left and right images, and the three-dimensional position of the subject is measured from the amount of displacement of the position. In addition, as a typical active method, an optical radar type range finder that projects the light, measures the time until it reflects and returns to find the distance, or projects a slit-shaped light pattern. There is a slit light projection method for measuring a three-dimensional shape from the displacement of the pattern shape reflected on the subject.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記ス
テレオ画像法においては、カメラが設置されているある
特定の位置から被写体までの距離情報算出が主目的であ
り、ある被写体の立体形状そのものを計測するものでは
なく、精度の高い3次元形状を得ることはできない。ま
た、能動的手法ではレーザ光等を物体に照射するために
装置が大型となり、コストが高くなるという問題があっ
た。さらに、いずれの方式においても、ある物体の周囲
を移動しながら撮像するような動的な撮像方式において
も柔軟に対応できるようなカメラ制御は行われていな
い。
However, in the above-mentioned stereo image method, the main purpose is to calculate the distance information from a specific position where the camera is installed to the object, and the stereoscopic shape itself of the object is measured. However, it is not possible to obtain a highly accurate three-dimensional shape. Further, in the active method, there is a problem that the apparatus becomes large in size because the object is irradiated with the laser beam and the cost becomes high. Furthermore, in any of the methods, camera control that can flexibly deal with a dynamic imaging method in which an image is taken while moving around a certain object is not performed.

【0004】本発明は上記の実情に鑑みてなされたもの
であり、その第1の発明の目的は、複数の撮像系により
被写体を撮像し、立体形状及び画素情報を得る立体形状
抽出装置において、焦点距離及び焦点合わせを自動的に
実行し、精度のよい立体形状抽出を実現すると共に撮影
者の負荷を低減することである。また、第2の発明の目
的は、焦点合わせ位置の調整を円滑に実行することであ
る。第3の発明の目的は、撮像を行う際に撮像パラメー
タを常に適切な状態に制御することである。第4の発明
の目的は、撮影者に撮像可能な状態であることを報知
し、円滑に撮像作業を実行できる状態にすることであ
る。
The present invention has been made in view of the above circumstances, and the first object of the present invention is to provide a three-dimensional shape extraction device for obtaining a three-dimensional shape and pixel information by imaging a subject with a plurality of imaging systems. The focal length and the focusing are automatically executed to realize accurate three-dimensional shape extraction and reduce the load on the photographer. An object of the second invention is to smoothly execute the adjustment of the focusing position. An object of the third invention is to always control the imaging parameter to an appropriate state when imaging. A fourth object of the present invention is to notify a photographer of a state in which an image can be picked up, and to make a state in which an image pick-up work can be smoothly executed.

【0005】第5の発明の目的は、撮影者が映像を入力
した時点における姿勢情報を得ることである。第6の発
明の目的は、撮影者の作業を円滑に進めるための手助け
をすることである。第7の発明の目的は、撮像作業の失
敗を防止することである。第8の発明の目的は、単眼の
撮像系により立体形状及び画素情報を得る立体形状抽出
装置により、焦点距離及び焦点合わせを自動的に実行
し、精度のよい形状抽出を実現すると共に撮影者の負荷
を低減することである。
An object of the fifth invention is to obtain posture information at the time when the photographer inputs a video. An object of the sixth invention is to help a photographer to smoothly carry out the work. An object of the seventh invention is to prevent a failure of imaging work. An eighth object of the present invention is to automatically perform focal length and focusing by a three-dimensional shape extraction device that obtains three-dimensional shape and pixel information from a monocular imaging system, realizes accurate shape extraction, and at the same time, the photographer It is to reduce the load.

【0006】第9の発明の目的は、立体形状抽出装置の
姿勢を常に検出できる状態を保持することである。第1
0の発明の目的は、既知の被写体が複数ある場合でも対
応可能とすることである。第11の発明の目的は、撮像
の撮り直し作業を円滑に行うことである。第12の発明
の目的は、主被写体を撮像する際に姿勢検出のための既
知の被写体の特徴部も同時に入力されるように自動的に
焦点距離を調整することにより、撮影の失敗が防止され
ると共に撮影者の負荷を低減できるようにすることであ
る。
A ninth object of the present invention is to maintain a state in which the posture of the three-dimensional shape extracting apparatus can be always detected. First
An object of the invention of 0 is to be able to cope with a plurality of known subjects. An eleventh aspect of the present invention is to smoothly perform a re-taking operation for image capturing. A twelfth object of the present invention is to prevent shooting failure by automatically adjusting the focal length so that a known feature of a subject for posture detection is also simultaneously input when capturing a main subject. It is also possible to reduce the load on the photographer.

【0007】[0007]

【課題を解決するための手段】第1の発明においては、
被写体を撮像するためのズームレンズを有する複数の撮
像手段と、立体形状を抽出すべき主被写体が上記各撮像
手段の重複する撮像領域に収まると共に上記主被写体が
焦点深度内に収まるように撮像パラメータを自動的に調
整する調整手段とを設けている。
Means for Solving the Problems In the first invention,
A plurality of image pickup means having a zoom lens for picking up an image of a subject, and an image pickup parameter so that a main subject from which a three-dimensional shape is to be extracted fits in the overlapping image pickup regions of the respective image pickup means and the main subject falls within the depth of focus. And adjusting means for automatically adjusting the.

【0008】第8の発明においては、ズームレンズを有
し移動可能に成された撮像手段と、上記撮像手段が移動
しながら立体形状を抽出すべき主被写体と既知の被写体
とを複数回撮像する際に、上記主被写体と既知の被写体
とが上記撮像手段の視野に収まると共に、上記主被写体
が焦点深度内に収まるように撮像パラメータを自動的に
調整する調整手段と、上記撮像した複数の画像を上記撮
像パラメータを基に補正処理して立体形状を得る補正手
段とを設けている。
In the eighth aspect of the present invention, the image pickup means having a zoom lens and configured to be movable, and the main image pickup object from which the three-dimensional shape is to be extracted and the known subject are imaged a plurality of times while the image pickup means moves. At this time, while the main subject and a known subject fall within the field of view of the image pickup means, adjusting means for automatically adjusting the image pickup parameter so that the main subject falls within the depth of focus, and the plurality of picked-up images Is provided based on the imaging parameter to obtain a three-dimensional shape.

【0009】第12の発明においては、ズームレンズを
有し移動可能に成された撮像手段と、上記撮像手段が移
動しながら立体形状を抽出すべき主被写体と既知の被写
体と複数回撮像する際に、上記主被写体と既知の被写体
の制御部が上記撮像手段の視野に収まるように撮像パラ
メータを自動的に調整する調整手段とを設けている。
According to a twelfth aspect of the invention, when the image pickup means having a zoom lens is movable, and when the image pickup means is moving, a main subject from which a three-dimensional shape is to be extracted and a known subject are imaged a plurality of times. In addition, the control unit for the main subject and the known subject is provided with an adjusting unit that automatically adjusts the imaging parameter so that the control unit fits within the visual field of the imaging unit.

【0010】[0010]

【作用】第1の発明によれば、ズームレンズを有する複
数の撮像手段により被写体を撮像し、被写体の立体形状
及び画素情報を出力する場合に、焦点距離を変えながら
重複領域における被写体の面積を求め、そのピークを検
出すると共に撮像系の焦点深度を算出し、各々の値を基
に撮像パラメータを自動的に調整することができる。
According to the first aspect of the invention, when the subject is imaged by a plurality of image pickup means having a zoom lens and the three-dimensional shape and pixel information of the subject are output, the area of the subject in the overlapping region is changed while changing the focal length. It is possible to obtain the peak, detect the peak, calculate the depth of focus of the imaging system, and automatically adjust the imaging parameter based on each value.

【0011】第8の発明によれば、ズームレンズを有す
る撮像手段により主被写体及び姿勢検出のための既知の
被写体とを撮像し、被写体の立体形状及び画素情報を出
力する場合に、主被写体及び既知の被写体が撮像手段の
視野に収まるように焦点距離を設定し制御すると共に、
主被写体が焦点深度内に収まるように撮像パラメータを
自動的に調整してその撮像パラメータを保持し、各撮像
位置における画像と姿勢情報、さらには撮像パラメータ
を基に立体形状抽出を行うことができる。
According to the eighth invention, when the main subject and a known subject for posture detection are imaged by the image pickup means having a zoom lens and the three-dimensional shape and pixel information of the subject are output, the main subject and the While setting and controlling the focal length so that a known subject fits within the field of view of the imaging means,
It is possible to automatically adjust the imaging parameters so that the main subject is within the depth of focus, hold the imaging parameters, and perform stereoscopic shape extraction based on the image and orientation information at each imaging position, and further the imaging parameters. .

【0012】第12の発明によれば、ズームレンズを有
する撮像手段により主被写体及び姿勢検出のための既知
の被写体を撮像し、被写体の立体形状及び画素情報を得
る場合に、画像入力の際に主被写体及び既知の被写体の
特徴部が撮像系の視野に収まるように撮像パラメータを
自動的に調整することができる。
According to the twelfth aspect of the invention, when the main subject and a known subject for posture detection are imaged by the image pickup means having a zoom lens and the three-dimensional shape and pixel information of the subject are obtained, the image is input. Imaging parameters can be automatically adjusted so that the main subject and the known subject feature are within the visual field of the imaging system.

【0013】[0013]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(第1の実施例)図1は本発明の第1の実施例による立
体形状抽出装置の概略図である。図1において、1は本
発明による立体形状抽出装置であり、2は被写体におけ
る立体形状を求めようとする主被写体、3は被写体にお
ける主被写体の背面である。立体形状抽出装置1におい
て、100Rは装置からみて右側の撮像レンズであり、
100Lは左側の撮像レンズである。200は照明部で
あり、撮像環境に応じて照明光を照射する。10Lは右
側の撮像レンズ100Rの撮像範囲を表わし、10Rは
左側の撮像レンズ100Lの撮像範囲を表わす。さら
に、立体形状抽出装置1は不図示の振動ジャイロ等のカ
メラ姿勢検出部を装着しており、装置1の位置を検出す
るようにしている。
(First Embodiment) FIG. 1 is a schematic diagram of a three-dimensional shape extraction apparatus according to a first embodiment of the present invention. In FIG. 1, 1 is a three-dimensional shape extracting device according to the present invention, 2 is a main subject for which a three-dimensional shape of a subject is to be obtained, and 3 is a back surface of the main subject in the subject. In the three-dimensional shape extraction device 1, 100R is an imaging lens on the right side when viewed from the device,
100L is an imaging lens on the left side. An illumination unit 200 emits illumination light according to the imaging environment. 10L represents the imaging range of the right imaging lens 100R, and 10R represents the imaging range of the left imaging lens 100L. Further, the three-dimensional shape extraction device 1 is equipped with a camera posture detection unit such as a vibration gyro (not shown) so as to detect the position of the device 1.

【0014】この立体形状抽出装置1は、撮像開始位置
A0より撮像終了位置Anまで移動しながら主被写体2
を撮像する。また、このときA0−An間の各撮像地点
における立体形状抽出装置1の位置情報は上記カメラ姿
勢検出部より得られる信号から算出する。
The three-dimensional shape extracting apparatus 1 moves the main subject 2 while moving from the image pickup start position A0 to the image pickup end position An.
Is imaged. Further, at this time, the position information of the three-dimensional shape extraction device 1 at each imaging point between A0 and An is calculated from the signal obtained from the camera posture detection unit.

【0015】図2は立体形状抽出装置1のブロック図を
示す。図2において、100R、100Lは撮像レンズ
であり、ズームレンズからなる。101R、101Lは
絞り、102R、102LはイメージセンサでありCC
D等を用いることができる。103R、103LはA/
D変換部、104R、104Lはイメージセンサ102
R、102Lからの信号を映像信号に変換する。映像信
号処理部、105R、105Lは被写体分離部であり、
立体情報を抽出したい主被写体2と背面3とを分離す
る。106R、106Lはズーム制御部であり、ズーム
レンズの焦点距離の調整を行う。107R、107Lは
フォーカス制御部であり、焦点位置の調整を行う。10
8R、108Lは絞り制御部であり絞り量の調整を行
う。
FIG. 2 shows a block diagram of the three-dimensional shape extraction device 1. In FIG. 2, 100R and 100L are imaging lenses, which are zoom lenses. 101R and 101L are diaphragms, 102R and 102L are image sensors, and CC
D or the like can be used. 103R and 103L are A /
The D conversion units 104R and 104L are the image sensor 102.
The signals from R and 102L are converted into video signals. The video signal processing units 105R and 105L are subject separation units,
The main subject 2 from which three-dimensional information is to be extracted and the back surface 3 are separated. Reference numerals 106R and 106L denote zoom control units that adjust the focal length of the zoom lens. Reference numerals 107R and 107L denote focus control units that adjust the focus position. 10
8R and 108L are diaphragm control units that adjust the diaphragm amount.

【0016】201はカメラ姿勢検出部であり、振動ジ
ャイロ等により構成され、カメラの撮像位置に応じた信
号を出力する。210はコントローラであり、立体形状
抽出装置の全体の制御を行うものであり、図3に示すよ
うに、マイクロコンピュータ900、メモリ910及び
画像演算処理部920から構成されている。220は画
像処理部であり、イメージセンサ102R、102Lよ
り得られる映像信号から被写体の立体情報を抽出すると
共に、抽出した各撮像地点における被写体の立体情報を
カメラ姿勢検出部201により得られる各撮像地点の姿
勢に関する情報に基づき統合し出力する。250は画像
を記録する記録部である。
Reference numeral 201 denotes a camera attitude detection unit, which is composed of a vibration gyro and outputs a signal corresponding to the image pickup position of the camera. Reference numeral 210 denotes a controller, which controls the entire three-dimensional shape extraction apparatus, and includes a microcomputer 900, a memory 910, and an image calculation processing section 920, as shown in FIG. An image processing unit 220 extracts the stereoscopic information of the subject from the video signals obtained from the image sensors 102R and 102L, and also obtains the stereoscopic information of the subject at each of the extracted image capturing points by the camera posture detection unit 201. It is integrated and output based on the information about the posture of. A recording unit 250 records an image.

【0017】270は分離された主被写体2と背面3と
により合焦状態を検出する合焦検出部である。260は
左右のパラメータの差を検出する左右差検出部、230
はシャッタ、280は外部入力のための外部インターフ
ェイス、240はLED等による表示部である。
A focus detection unit 270 detects a focus state by the separated main subject 2 and back surface 3. Reference numeral 260 denotes a left / right difference detection unit that detects a difference between left and right parameters, and 230
Is a shutter, 280 is an external interface for external input, and 240 is a display unit such as an LED.

【0018】次に上記構成による動作について説明す
る。被写体像は撮像レンズ100R、100Lを通して
入力される。入力された被写体像はイメージセンサ10
2R、102Lにおいて電気的な映像信号に変換され
る。変換された映像信号は、A/D変換部103R、1
03Lにおいてアナログ信号からディジタル信号に変換
されて映像信号処理部104R、104Lに供給され
る。
Next, the operation of the above configuration will be described. The subject image is input through the imaging lenses 100R and 100L. The input subject image is the image sensor 10
It is converted into an electric video signal in 2R and 102L. The converted video signals are A / D conversion units 103R, 1
In 03L, the analog signal is converted into a digital signal and supplied to the video signal processing units 104R and 104L.

【0019】映像信号処理部104R、104Lにおい
ては、ディジタル化された被写体の映像信号を、適切な
形態の輝度信号及び色信号に変換処理する。次に被写体
分離部105R、105Lにおいて、映像信号処理部1
04R、104Lより得られる信号をもとに、撮像され
る被写体における、立体形状を計測したい主被写体2と
背面3とを分離する。分離の方法としては、例えば予め
背面3の映像を撮像しておき、その画像をメモリに保持
しその後測定したい主被写体2を置いて撮像を行う。撮
像した映像と予めメモリに保持している背面の映像との
マッチング及び差分処理を施し背面領域を分離する等の
方法を用いる。分離の方法としては、これに限るもので
はなく色あるいはテクスチャの情報を基に分離してもよ
い。分離された主被写体2の映像は画像処理部220に
与えられ、この画像処理部220において撮像時の各パ
ラメータを基に立体形状の抽出処理が施される。
In the video signal processing units 104R and 104L, the digitized video signal of the subject is converted into a luminance signal and a color signal of appropriate forms. Next, in the subject separation units 105R and 105L, the video signal processing unit 1
Based on the signals obtained from 04R and 104L, the main subject 2 and the back surface 3 of the imaged subject whose stereoscopic shape is to be measured are separated. As a method of separation, for example, an image of the back surface 3 is captured in advance, the image is held in a memory, and then the main subject 2 to be measured is placed and imaged. A method of performing matching and difference processing between the imaged image and the image of the rear face held in the memory in advance to separate the rear face region is used. The separation method is not limited to this, and separation may be performed based on color or texture information. The separated image of the main subject 2 is supplied to the image processing unit 220, and in this image processing unit 220, three-dimensional shape extraction processing is performed based on each parameter at the time of imaging.

【0020】次に、図4のフローチャートにより立体形
状抽出装置の処理シーケンスについて説明する。ステッ
プS1で電源がONとなり映像信号が入力されると、コ
ントローラ210は、ステップS2で露光調整を行い、
被写体分離部105R、105Lにより得られる映像信
号を図3の画像演算処理部920により積分処理して主
被写体2の輝度レベルを算出する。ステップS3で輝度
レベルが立体形状抽出には不十分であると判断した場合
はステップS4で照明200を点灯する。その場合、照
明強度レベルを算出された輝度レベルに応じて可変とし
てもよい。
Next, the processing sequence of the three-dimensional shape extraction device will be described with reference to the flowchart of FIG. When the power is turned on and a video signal is input in step S1, the controller 210 performs exposure adjustment in step S2,
The video signals obtained by the subject separation units 105R and 105L are integrated by the image calculation processing unit 920 in FIG. 3 to calculate the brightness level of the main subject 2. When it is determined in step S3 that the brightness level is insufficient for extracting the three-dimensional shape, the illumination 200 is turned on in step S4. In that case, the illumination intensity level may be variable according to the calculated brightness level.

【0021】適切な輝度レベルに設定された左右各々の
映像信号を用いて次にステップS5で焦点位置の調整を
行う。焦点位置は図5に示すようにまず主被写体2上に
合わせ、その後背面3に合わせる。合焦状態の検出は、
合焦検出部270により行う。検出の方式としては、映
像信号中よりエッジの鮮鋭度あるいはボケ量を検知する
などの公知の方式が利用できる。左右各々において焦点
合わせを行った距離を図5のX1 及びX2 とすると、合
焦検出部270はこの値をコントローラ210に出力す
る。コントローラ210は、この値をもとに計測時に焦
点合わせを行う距離Xを決定し、フォーカス制御部10
7R、107Lに制御信号を出力する。距離Xは例えば
1 及びX2 の中間の位置X=(X1 +X2 )/2とし
てもよいし、適当な重み付けを行いX=(mX1 +nX
2 )として求めてもよい。
Next, in step S5, the focus position is adjusted using the left and right video signals set to the appropriate brightness level. The focus position is first adjusted on the main subject 2 and then on the rear surface 3 as shown in FIG. Focus detection is
This is performed by the focus detection unit 270. As the detection method, a known method such as detecting the sharpness of the edge or the blur amount from the video signal can be used. Assuming that the distances at which focusing is performed on the left and right sides are X 1 and X 2 in FIG. 5, the focus detection unit 270 outputs this value to the controller 210. The controller 210 determines the distance X for focusing at the time of measurement based on this value, and the focus control unit 10
A control signal is output to 7R and 107L. The distance X may be, for example, an intermediate position X = (X 1 + X 2 ) / 2 between X 1 and X 2 , or X = (mX 1 + nX) with appropriate weighting.
2 ) You may ask for it.

【0022】距離Xに焦点位置を合わせた場合に焦点深
度内に収まる範囲は、距離X1 ′からX2 ′の範囲で以
下のように表わすことができる。 X1 ′=Xf2 /{f2 +δF(X−f)} X2 ′=Xf2 /{f2 −δF(X−f)} ………(1) ここで、δは最小錯乱円形を表わし、例えばイメージセ
ンサ102R、102Lの画素サイズとしてもよい。
The range within the depth of focus when the focal position is adjusted to the distance X can be expressed as follows in the range from the distance X 1 'to X 2 '. X 1 ′ = Xf 2 / {f 2 + δF (X−f)} X 2 ′ = Xf 2 / {f 2 −δF (X−f)} (1) Here, δ is a circle of least confusion. For example, the pixel size of the image sensors 102R and 102L may be used.

【0023】コントローラ210は、X1 及びX2 とX
1 ′及びX2 ′とがほぼ一致するように絞りのFナンバ
ーを設定するために、絞り制御部108R、108Lに
制御信号を与える。この操作により輝度レベルがある程
度以上に変化した場合は、照明200の強度を変化させ
て対応する。あるいは、AGC(オートゲインコントロ
ール)回路を組み込み電気的にレベル補正を行ってもよ
い。
The controller 210 uses X 1 and X 2 and X
In order to set the F number of the diaphragm so that 1 ′ and X 2 ′ substantially match, a control signal is given to the diaphragm control units 108R and 108L. When the brightness level changes to a certain extent or more by this operation, the intensity of the illumination 200 is changed to deal with it. Alternatively, an AGC (auto gain control) circuit may be incorporated to perform level correction electrically.

【0024】上記のように焦点位置合わせを実行した
後、次にステップS6でズームの調整を行う。図6は、
ズーム調整の概略を示したものである。主被写体2がほ
ぼ焦点深度内に収まった状態で、イメージセンサ102
R、102Lから得られる映像をコントローラ210内
のメモリ910に保持すると共に、画像演算処理部92
0においてオーバーラップ領域の検出を行う。検出の方
式は2画像を比較して相関をとる相関演算処理や画像中
よりテンプレートに設定した画像をサーチするテンプレ
ートマッチング処理等を利用する。図6(a)に示すよ
うに、最初の状態で主被写体2のオーバーラップ領域5
00を検出し、次にこの領域の面積が(b)のように画
面内で大きくなる方向にコントローラ210はズーム値
を設定し、ズーム制御部106R、106Lに制御信号
を出力する。
After the focus position adjustment is performed as described above, the zoom is adjusted in step S6. FIG.
3 is a diagram showing an outline of zoom adjustment. With the main subject 2 substantially within the depth of focus, the image sensor 102
The images obtained from R and 102L are held in the memory 910 in the controller 210, and the image calculation processing unit 92
At 0, the overlap area is detected. As a detection method, a correlation calculation process for comparing two images to obtain a correlation, a template matching process for searching an image set as a template from the images, and the like are used. As shown in FIG. 6A, in the initial state, the overlap area 5 of the main subject 2
00, and then the controller 210 sets a zoom value in the direction in which the area of this region increases in the screen as shown in (b), and outputs a control signal to the zoom control units 106R and 106L.

【0025】図7は一連のズーム調整による画面内の主
被写体2のオーバーラップ領域500の変化を示す。図
7において、オーバーラップ領域500の面積Pがピー
クとなる焦点距離fをコントローラ210の画像演算処
理部920が算出し、ズーム制御部106R、106L
に制御信号を与える。
FIG. 7 shows changes in the overlap area 500 of the main subject 2 in the screen due to a series of zoom adjustments. In FIG. 7, the image calculation processing unit 920 of the controller 210 calculates the focal length f at which the area P of the overlap region 500 has a peak, and the zoom control units 106R and 106L.
To the control signal.

【0026】なお、この操作により焦点距離fが変化
し、その結果焦点深度の範囲がある程度以上に変化した
場合には(1)式によりX1 及びX2 とX1 ′及び
2 ′とがほぼ一致するようにFナンバーを設定するた
めに、パラメータ再調整のステップS6に従い、絞り制
御部108R、108Lに制御信号を与える。すなわち
S1〜S7の一連の調整後に、パラメータ再調整及び左
右差補正のステップS8を施す。左右差補正は左右差検
出部260において露光量、焦点位置及びズーム値の差
を左右の映像信号より検出する。検出された差信号に基
づきコントローラ210はズーム制御部106R、10
6L、フォーカス制御部107R、107L、絞り制御
部108R、108Lに制御信号を与えて左右差を補正
する。
When the focal length f is changed by this operation and the range of the depth of focus is changed to a certain extent or more as a result, X 1 and X 2 and X 1 ′ and X 2 ′ are expressed by equation (1). In order to set the F numbers so that they substantially coincide with each other, a control signal is given to the aperture control units 108R and 108L in accordance with the parameter readjustment step S6. That is, after the series of adjustments of S1 to S7, step S8 of parameter readjustment and left / right difference correction is performed. In the left-right difference correction, the left-right difference detection unit 260 detects a difference in exposure amount, focus position, and zoom value from left and right video signals. Based on the detected difference signal, the controller 210 causes the zoom control units 106R and 10R to
6L, focus control units 107R and 107L, and aperture control units 108R and 108L are given control signals to correct the left-right difference.

【0027】さらに、距離情報は以下の式により表わす
ことができる。 Z=fb/d ………(2) ここで、Z:距離、f:焦点距離、b:基線長、d:視
差を示す。従って、焦点距離fは視差により決まる距離
分離能をパラメータとして以下のようになる。 ∂z/∂d=−(fb/d2 )→f=−(d2 /b)・(∂z/∂d) ………(3) 従って、ステップS5の焦点距離調整の際、ステップS
9により外部I/F280を通して外部のコンピュータ
等から分離能を設定し、この値を基に焦点距離を設定す
ることも可能である。
Further, the distance information can be expressed by the following equation. Z = fb / d (2) Here, Z: distance, f: focal length, b: base line length, and d: parallax. Therefore, the focal length f is as follows using the distance separation power determined by the parallax as a parameter. ∂z / ∂d = − (fb / d 2 ) → f = − (d 2 / b) · (∂z / ∂d) (3) Therefore, when the focal length is adjusted in step S5, step S5 is performed.
It is also possible to set the separability from an external computer or the like through the external I / F 280 by 9 and set the focal length based on this value.

【0028】ステップS2〜S9により撮像パラメータ
が調整されると、コントローラ210はステップS10
で表示部240に信号を与え、パラメータ設定の終了を
撮影者に知らせる。この表示部240はCRT、LCD
等のディスプレイでもよいし、LED等による簡易表示
でもよい。また表示と合わせて音を発生してもよい。
When the imaging parameters are adjusted in steps S2 to S9, the controller 210 causes step S10 to be performed.
Then, a signal is given to the display section 240 to notify the photographer of the end of parameter setting. This display unit 240 is a CRT, LCD
Or the like, or a simple display using an LED or the like. A sound may be generated together with the display.

【0029】次に撮影者は、LED等の表示を確認し、
立体形状の抽出作業を開始する。ステップS9で撮影者
が不図示の入力開始ボタンを押すと、ステップS12で
カメラ姿勢検出部201の検出信号が初期化される。次
に、本装置を図1に示すようにA0からAn方向に移動
させながら被写体を撮像する。この場合、入力開始ボタ
ンが押されてから終了ボタンが押されるまでは、撮像パ
ラメータの変更はコントローラ210により禁止され
る。装置の移動中は、ステップS13で、カメラ姿勢検
出部201により装置の姿勢、速度が検出されており、
検出された装置を移動させる速度が、ステップS14で
適切なレベルからはずれた場合は、ステップS15で表
示部240のLEDにより撮影者に知らせるようになっ
ている。
Next, the photographer confirms the display of the LED or the like,
Start the work of extracting a three-dimensional shape. When the photographer presses an input start button (not shown) in step S9, the detection signal of the camera posture detection unit 201 is initialized in step S12. Next, the subject is imaged while moving the apparatus in the An direction from A0 as shown in FIG. In this case, the controller 210 prohibits the change of the imaging parameter from when the input start button is pressed until the end button is pressed. While the device is moving, the camera attitude detection unit 201 detects the attitude and speed of the device in step S13.
When the detected moving speed of the device deviates from the appropriate level in step S14, the photographer is informed by the LED of the display unit 240 in step S15.

【0030】ステップS16において、撮影者は適当な
間隔で、シャッタ230を押して映像を入力する。ここ
で、シャッタ230をきるタイミングを、カメラ姿勢検
出部201の信号を基にコントローラ210が算出し
て、表示部240のLED等により撮影者に知らせるよ
うにしてもよい。シャッタ230が押されたことをコン
トローラ210が検知すると、それに同期してステップ
S17でそのときの姿勢をカメラ姿勢検出部201の検
出信号より算出すると共に、画像処理部220に姿勢情
報を与える。そしてステップS18で、画像処理部22
0は、姿勢情報と左右各々の映像信号より被写体の3次
元座標を求め、画素値と共に記録部250に出力する。
ステップS19で、記録部250は与えられた信号を基
に適切なフォーマットに変換し、記録媒体に書き込んだ
後、ステップS20で入力終了するまで、ステップS1
7〜S20の処理を繰り返し、全入力を終了した場合
に、ステップS21で処理を終了する。
In step S16, the photographer presses the shutter 230 at an appropriate interval to input an image. Here, the controller 210 may calculate the timing at which the shutter 230 is released based on the signal from the camera attitude detection unit 201, and notify the photographer through the LED or the like of the display unit 240. When the controller 210 detects that the shutter 230 is pressed, the attitude at that time is calculated from the detection signal of the camera attitude detection unit 201 in step S17 in synchronization therewith, and the attitude information is given to the image processing unit 220. Then, in step S18, the image processing unit 22
0 obtains the three-dimensional coordinates of the subject from the posture information and the left and right video signals, and outputs the three-dimensional coordinates to the recording unit 250 together with the pixel value.
In step S19, the recording section 250 converts the given signal into an appropriate format based on the given signal and writes it in the recording medium, and then, in step S20, until the input is completed, step S1
When all the inputs have been completed by repeating the processes of 7 to S20, the process is completed in step S21.

【0031】(第2の実施例)図8は、本発明による立
体形状抽出装置の第2の実施例の概略を示したものであ
る。図8において、705は主被写体、700は立体形
状抽出装置である。100は撮像レンズ、200は照明
部である。また703は主被写体705が置かれたキャ
リプレーションパッドであり、立体形状抽出装置700
はこのパッド703の映像を基に姿勢の検出を行う。
尚、パッド703上に記された文字A、B、C、Dは装
置700の姿勢検出のためのマーカであり、これらマー
カの方向や歪み等から姿勢の算出を行う。
(Second Embodiment) FIG. 8 shows an outline of a second embodiment of the three-dimensional shape extraction device according to the present invention. In FIG. 8, 705 is a main subject, and 700 is a three-dimensional shape extraction device. Reference numeral 100 is an imaging lens, and 200 is an illumination unit. Reference numeral 703 denotes a calibration pad on which the main subject 705 is placed, and the three-dimensional shape extraction device 700
Detects the posture based on the image of the pad 703.
The letters A, B, C, and D written on the pad 703 are markers for detecting the posture of the apparatus 700, and the posture is calculated from the direction and distortion of these markers.

【0032】図9は本実施例による立体形状抽出装置7
00のブロック図である。尚、図9においては、図2に
おける各部のL及びRの記号部を除いて同一の番号を付
するものは、機能及び動作が同じである。図9におい
て、100は撮像レンズであり、ズームレンズ等が用い
られる。101は絞り、102はCCD等のイメージセ
ンサである。103はA/D変換部、104は映像信号
処理部、105は被写体分離部である。
FIG. 9 shows a three-dimensional shape extraction device 7 according to this embodiment.
It is a block diagram of 00. In FIG. 9, the parts having the same numbers except the L and R symbol parts of each part in FIG. 2 have the same function and operation. In FIG. 9, reference numeral 100 is an imaging lens, and a zoom lens or the like is used. Reference numeral 101 is a diaphragm, and 102 is an image sensor such as a CCD. Reference numeral 103 is an A / D conversion unit, 104 is a video signal processing unit, and 105 is a subject separation unit.

【0033】740は姿勢検出部であり、パッド703
のマーカの方向、歪み等から装置700の姿勢を検出す
るものである。720は画像処理部であり、映像信号と
姿勢情報とから主被写体705の立体形状を抽出する。
770は合焦検出部であり、単眼であることを除いて機
能及び動作は第1の実施例と同様である。750は画像
メモリ、710はコントローラであり、装置全体の制御
を行う。730はコントローラ710に設けたメモリで
ある。
Reference numeral 740 is an attitude detector, which is a pad 703.
The orientation of the device 700 is detected from the direction and distortion of the marker. An image processing unit 720 extracts a three-dimensional shape of the main subject 705 from the video signal and the posture information.
A focus detection unit 770 has the same function and operation as the first embodiment except that it is a monocular. An image memory 750 and a controller 710 control the entire apparatus. A memory 730 is provided in the controller 710.

【0034】次に、動作について図10のフローチャー
トと共に説明する。ステップS1〜S5は図4の場合と
同様に1つの映像信号について行われる。本実施例が第
1の実施例と異なる点は、ステップS22におけるズー
ムの調整法である。本実施例の装置700は、パッド7
03との組み合わせにより姿勢検出を行うため、撮像の
際にパッド703が適切な範囲で得られることが必要と
なる。そこで、まず被写体分離部105は、予め保持し
ているパッド703の特徴部(図8の四隅のA、B、
C、D)のパターンと現在得られている映像との間で相
関演算あるいはテンプレートマッチング処理を施し、そ
の検出信号をコントローラ710に出力する。コントロ
ーラ710は、パッド703の特徴部が視野内に適切な
範囲で収まるように焦点距離を設定する。同時に焦点距
離の情報をコントローラ710内のメモリ730に保持
する。これにより、パッド全体を常に視野に収めること
ができるので、特徴部の形状より常に姿勢の検出が可能
な状態となる。
Next, the operation will be described with reference to the flowchart of FIG. Steps S1 to S5 are performed for one video signal as in the case of FIG. The present embodiment differs from the first embodiment in the zoom adjusting method in step S22. The device 700 of the present embodiment includes the pad 7
Since the posture is detected by a combination with 03, it is necessary to obtain the pad 703 in an appropriate range at the time of imaging. Therefore, first, the subject separation unit 105 has a characteristic portion of the pad 703 held in advance (A, B at the four corners in FIG. 8,
Correlation calculation or template matching processing is performed between the patterns C and D) and the image currently obtained, and the detection signal is output to the controller 710. The controller 710 sets the focal length so that the characteristic portion of the pad 703 is included in the visual field within an appropriate range. At the same time, the information on the focal length is held in the memory 730 in the controller 710. As a result, the entire pad can be kept in the visual field at all times, so that the posture can always be detected from the shape of the characteristic portion.

【0035】次に、光学系のパラメータが設定される
と、ステップS23で表示部240のLEDを点灯し、
撮影者に入力可能な状態であることを知らせる。撮影者
は、この表示を受けてステップS24で入力を開始し、
装置700を移動させながらステップS25により適当
な間隔でシャッタ230を切り、映像を入力する。この
とき、被写体分離部105の情報を基にコントローラ7
10は主被写体を含むパッド703の特徴部が常に適切
な範囲で視野に収まるように焦点距離を設定する。同時
に各撮像位置における焦点距離を含む撮像パラメータ情
報をメモリ730に保持する。これによりステップS2
6で特徴部の状態から姿勢検出部740が姿勢を検出す
る。
Next, when the parameters of the optical system are set, the LED of the display section 240 is turned on in step S23,
Notify the photographer that input is possible. Upon receiving this display, the photographer starts input in step S24,
While moving the apparatus 700, the shutter 230 is opened at an appropriate interval in step S25 to input the image. At this time, based on the information of the subject separation unit 105, the controller 7
Reference numeral 10 sets the focal length so that the characteristic portion of the pad 703 including the main subject always fits within the visual field within an appropriate range. At the same time, image pickup parameter information including the focal length at each image pickup position is held in the memory 730. This results in step S2
At 6, the posture detection unit 740 detects the posture from the state of the characteristic portion.

【0036】続いてステップS27で画像処理部720
は、画像メモリ750に保持されている複数の映像信号
を読み出し、コントローラ710内のメモリ730に保
持されている撮像パラメータ情報を基に画像を変換し、
同一焦点距離の画像に補正する。さらに、画像処理部7
20は、補正された映像信号と姿勢検出部740により
得られる姿勢信号とから被写体の立体形状を抽出し、記
録部250に与える。記録部250は得られる信号を適
切なフォーマットに変換し、記録媒体に記録する。そし
てステップS28で全入力終了まで画像の取り込みを行
い、全入力を終了した場合に、ステップS29で処理を
終了とする。 (第3の実施例)図11は本発明による立体形状抽出装
置の第3の実施例を示すブロック図である。図10にお
いては、図1、図9と同一の番号を付するものは機能及
び動作が同じであるものとし説明は省略する。図11に
おいて、820はメモリであり、パッドに関する情報を
保持するものである。780は選択手段であり、パッド
703の種類等を選択するものである。790は記録部
で、この記録部790は立体形状と共に撮像パラメータ
も同時に記録する。また必要に応じて記録した情報を読
み出だす機能も有するものである。800はコントロー
ラであり全体の制御を行う。810はマッチング処理部
であり、記録部790により読みだされる予め記録され
た立体形状及び画素情報を基に現在撮像されている映像
との間でマッチング処理を施すものである。
Subsequently, in step S27, the image processing unit 720
Reads out a plurality of video signals held in the image memory 750, converts the image based on the imaging parameter information held in the memory 730 in the controller 710,
Correct to an image with the same focal length. Further, the image processing unit 7
20 extracts the three-dimensional shape of the subject from the corrected video signal and the posture signal obtained by the posture detection unit 740, and gives it to the recording unit 250. The recording unit 250 converts the obtained signal into an appropriate format and records it on a recording medium. Then, in step S28, the image is captured until the entire input is completed, and when the entire input is completed, the process ends in step S29. (Third Embodiment) FIG. 11 is a block diagram showing a third embodiment of the three-dimensional shape extracting apparatus according to the present invention. In FIG. 10, those denoted by the same reference numerals as those in FIGS. 1 and 9 have the same functions and operations, and description thereof will be omitted. In FIG. 11, reference numeral 820 denotes a memory, which holds information regarding pads. Reference numeral 780 is a selection means for selecting the type of the pad 703 and the like. A recording unit 790 records the imaging parameters together with the three-dimensional shape. It also has a function of reading out the recorded information as needed. Reference numeral 800 denotes a controller, which controls the entire system. Reference numeral 810 denotes a matching processing unit, which performs matching processing with the currently captured image based on the pre-recorded three-dimensional shape and pixel information read by the recording unit 790.

【0037】次に、動作について図12のフローチャー
トと共に説明する。ステップS1で電源ON後、ステッ
プS30で撮影者が入力開始時に選択手段780により
パッド703の種類を選択する。次にコントローラ80
0はステップS31で、選択された情報に基づいてメモ
リ820から情報を読み出し、焦点距離やフォーカス等
パラメータの制御及び姿勢検出等に利用する。
Next, the operation will be described with reference to the flowchart of FIG. After the power is turned on in step S1, the photographer selects the type of pad 703 by the selection means 780 at the start of input in step S30. Then the controller 80
In step S31, 0 reads out information from the memory 820 based on the selected information and uses it for control of parameters such as focal length and focus and posture detection.

【0038】以下、ステップS32〜S41に示すよう
に図10と同様の制御を行って入力を開始し、立体形状
を抽出する。また、ステップS42で入力中に取り直し
を行いたい場合、選択手段780により取り直しモード
を選択する。その場合はステップS43で、記録部79
0はこれまでに記録した信号を読み出し、ステップS4
4により現在撮像されている映像との間でマッチング演
算処理を実施する。マッチング演算処理により現在撮像
されている領域と読み出された信号との間の対応が取れ
るとステップS37で表示部240のLED等が点灯
し、撮影者に入力準備が整ったことを知らせる。
Thereafter, as shown in steps S32 to S41, the same control as in FIG. 10 is performed to start the input, and the three-dimensional shape is extracted. Further, when it is desired to perform the retake during the input in step S42, the retake mode is selected by the selection means 780. In that case, in step S43, the recording unit 79
0 reads out the signals recorded so far, and step S4
In step 4, a matching calculation process is performed with the image currently captured. When the correspondence between the currently imaged region and the read signal is obtained by the matching calculation process, the LED or the like of the display unit 240 is turned on in step S37 to notify the photographer that the input preparation is completed.

【0039】尚、上記ステップS42で取り直しを行う
場合、パッド703上の主被写体705の配置を変える
ことも可能であり、この場合も以前に記録された信号と
の間でマッチング処理を施し、対応が取れた領域を基点
に入力を開始する。また、一旦入力作業を終了し再度や
り直す場合は、記録部790は以前に記録さた立体形状
及び画素信号に加えて撮像パラメータを読み出し、以前
に撮像したときと同じ撮像パラメータに設定して入力を
行う。さらに、予めメモリ820に登録されていないパ
ッド703を用いたい場合などは外部I/F280を通
じてコンピュータ等から設定を行う。撮り直ししない場
合は、ステップS45で入力終了までステップS39〜
S42を行った後、ステップS46で終了する。
In the case of re-taking in step S42, it is possible to change the arrangement of the main subject 705 on the pad 703, and in this case as well, matching processing is performed with the previously recorded signal to deal with it. Input is started from the area where is obtained. In addition, when the input work is ended once again and the process is redone, the recording unit 790 reads out the imaging parameters in addition to the previously recorded stereoscopic shape and pixel signal, sets the same imaging parameters as those previously captured, and inputs the same. To do. Further, when it is desired to use the pad 703 which is not registered in the memory 820 in advance, the setting is performed from the computer or the like through the external I / F 280. If the photograph is not taken again, the steps S39 to S45 are performed until the input is completed.
After performing S42, the process ends in step S46.

【0040】[0040]

【発明の効果】以上説明したように、第1の発明によれ
ば、主被写体が各々の撮像系の重複部に収まると共にフ
ォーカスが合った鮮明な映像を得ることができるので、
立体形状の精度が向上し、さらに自動化されているため
に使い勝手が著しく向上する。また、第2の発明によれ
ば、焦点合わせを行う位置が被写体の底面からの中間位
置となるので、ほぼ被写体全体を深度内に収める際の調
整が円滑に実行できる。また、第3の発明によれば、パ
ラメータの一部を変更しても、再調整を行うために得ら
れる映像は、常に一定レベルの品質を得ることができ
る。
As described above, according to the first aspect of the present invention, since the main subject can be contained in the overlapping portion of the respective image pickup systems and the focused and clear image can be obtained,
The accuracy of the three-dimensional shape is improved, and since it is automated, the usability is significantly improved. Further, according to the second aspect of the invention, since the position for focusing is an intermediate position from the bottom surface of the subject, it is possible to smoothly perform the adjustment when the entire subject is within the depth. Further, according to the third aspect, even if a part of the parameters is changed, the image obtained for readjustment can always obtain a constant level of quality.

【0041】また、第4の発明によれば、撮影者が撮像
を開始可能か否かを簡単に判断することができる。ま
た、第5の発明によれば、映像を入力したのと同じ時点
でカメラの姿勢情報を得ることができるので、形状抽出
の精度及び信頼度を向上することができる。また、第6
の発明によれば、撮影者がいつシャッタを押すべきかを
知ることができるため操作性が著しく向上する。また、
第7の発明によれば、映像入力の際のカメラの移動速度
を直感的に知ることができるため、操作性が向上し、入
力される映像の質が向上する。
According to the fourth aspect, the photographer can easily determine whether or not the image pickup can be started. Further, according to the fifth aspect, since the posture information of the camera can be obtained at the same time when the video is input, the accuracy and reliability of shape extraction can be improved. Also, the sixth
According to the invention, since the photographer can know when to press the shutter, the operability is significantly improved. Also,
According to the seventh invention, since the moving speed of the camera at the time of inputting a video can be intuitively known, the operability is improved and the quality of the input video is improved.

【0042】また、第8の発明によれば、単眼の撮像装
置により品質の良い映像を入力でき、精度及び信頼度の
高い立体形状を得ることができる。また、第9の発明に
よれば、姿勢検出のための特徴点を常に視野内に収める
ことができ、撮像の失敗を防止することができる。ま
た、第10の発明によれば、既知の被写体が複数ある場
合でも対応可能であり、形状を抽出する被写体に応じて
使い分けることができる。また、第11の発明によれ
ば、撮り直し操作を円滑に進めることができ、被写体の
底面を含めた全域の撮像が容易に実行できる。
According to the eighth aspect of the invention, it is possible to input a high-quality image with the monocular imaging device and obtain a three-dimensional shape with high accuracy and reliability. Further, according to the ninth aspect, the feature points for posture detection can always be included in the visual field, and it is possible to prevent imaging failure. Further, according to the tenth invention, it is possible to cope with a case where there are a plurality of known subjects, and it is possible to properly use them according to the subject whose shape is to be extracted. According to the eleventh invention, the re-shooting operation can be smoothly advanced, and the entire area including the bottom surface of the subject can be easily imaged.

【0043】また、第12の発明によれば、画像入力の
際に自動的に焦点距離が調整されるので、撮影の失敗が
無くなると共に、撮影者が画像を入力する毎に毎回視野
を設定する必要がないために撮影者の負荷が著しく低減
される。
According to the twelfth aspect of the invention, since the focal length is automatically adjusted at the time of inputting an image, there is no failure in photographing, and the field of view is set every time the photographer inputs an image. Since it is not necessary, the burden on the photographer is significantly reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例を示す概略的な構成図で
ある。
FIG. 1 is a schematic configuration diagram showing a first embodiment of the present invention.

【図2】第1の実施例を示すブロック図である。FIG. 2 is a block diagram showing a first embodiment.

【図3】図2のコントローラの構成を示すブロック図で
ある。
FIG. 3 is a block diagram showing a configuration of a controller shown in FIG.

【図4】第1の実施例の動作を示すフローチャートであ
る。
FIG. 4 is a flowchart showing the operation of the first embodiment.

【図5】焦点合わせを説明する構成図である。FIG. 5 is a configuration diagram illustrating focusing.

【図6】ズーム調整を説明する構成図である。FIG. 6 is a configuration diagram illustrating zoom adjustment.

【図7】ズーム制御を説明するグラフである。FIG. 7 is a graph illustrating zoom control.

【図8】本発明の第2の実施例の概略的な構成図であ
る。
FIG. 8 is a schematic configuration diagram of a second embodiment of the present invention.

【図9】第2の実施例を示すブロック図である。FIG. 9 is a block diagram showing a second embodiment.

【図10】第2の実施例の動作を示すフローチャートで
ある。
FIG. 10 is a flowchart showing the operation of the second embodiment.

【図11】本発明の第3の実施例を示すブロック図であ
る。
FIG. 11 is a block diagram showing a third embodiment of the present invention.

【図12】第3の実施例の動作を示すフローチャートで
ある。
FIG. 12 is a flowchart showing the operation of the third embodiment.

【符号の説明】[Explanation of symbols]

1 立体形状抽出装置 2 主被写体 10R、10L 撮像光学系 100R、100L 撮影レンズ 101R、101L 絞り 102R、102L イメージセンサ 104R、104L 映像信号処理部 105R、105L 被写体分離部 106R、106L ズーム制御部 107R、107L フォーカス制御部 108R、108L 絞り制御部 201 カメラ姿勢検出部 210 コントローラ 220 画像処理部 230 シャッタ 240 表示部 270 合焦検出部 760 外部I/F 1 Stereoscopic Shape Extraction Device 2 Main Subject 10R, 10L Imaging Optical System 100R, 100L Photographic Lens 101R, 101L Aperture 102R, 102L Image Sensor 104R, 104L Video Signal Processing Unit 105R, 105L Subject Separation Unit 106R, 106L Zoom Control Unit 107R, 107L Focus control unit 108R, 108L Aperture control unit 201 Camera attitude detection unit 210 Controller 220 Image processing unit 230 Shutter 240 Display unit 270 Focus detection unit 760 External I / F

───────────────────────────────────────────────────── フロントページの続き (72)発明者 倉橋 直 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 岡内 茂樹 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Nao Kurahashi 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Shigeki Okauchi 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Within the corporation

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 被写体を撮像するためのズームレンズを
有する複数の撮像手段と、 立体形状を抽出すべき主被写体が上記各撮像手段の重複
する撮像領域に収まると共に上記主被写体が焦点深度内
に収まるように撮像パラメータを自動的に調整する調整
手段とを備えた立体形状抽出装置。
1. A plurality of image pickup means having a zoom lens for picking up an image of a subject, and a main subject from which a three-dimensional shape is to be extracted is contained in an overlapping image pickup area of each of the image pickup means, and the main subject is within the depth of focus. A three-dimensional shape extraction device comprising: an adjusting unit that automatically adjusts an imaging parameter so that the image pickup parameter fits.
【請求項2】 焦点合わせを行う位置を上記主被写体の
置かれている面と主被写体における各撮像手段に最も近
い位置との中間位置とすることを特徴とする請求項1記
載の立体形状抽出装置。
2. The three-dimensional shape extraction according to claim 1, wherein a position for focusing is an intermediate position between a surface on which the main subject is placed and a position of the main subject which is closest to each image pickup means. apparatus.
【請求項3】 上記撮像パラメータの一部が変更された
場合、他のパラメータを再調整することを特徴とする請
求項1記載の立体形状抽出装置。
3. The three-dimensional shape extraction device according to claim 1, wherein when some of the imaging parameters are changed, other parameters are readjusted.
【請求項4】 上記撮像パラメータの調整が完了したこ
とを撮影者に報知することを特徴とする請求項1記載の
立体形状抽出装置。
4. The three-dimensional shape extraction device according to claim 1, further comprising notifying a photographer that the adjustment of the imaging parameter is completed.
【請求項5】 上記複数の撮像手段は一体的に移動可能
に成されており、撮影者がシャッタを切るのに同期して
上記各撮像手段の位置を検出する位置検出手段を設けた
ことを特徴とする請求項1記載の立体形状抽出装置。
5. The plurality of image pickup means are integrally movable so that a position detection means for detecting the position of each of the image pickup means is provided in synchronization with the shutter release of the photographer. The three-dimensional shape extraction device according to claim 1, which is characterized in that.
【請求項6】 上記位置検出手段の検出に基づいて上記
撮影者にシャッタを切るタイミングを報知することを特
徴とする請求項5記載の立体形状抽出装置。
6. The three-dimensional shape extraction device according to claim 5, wherein the photographer is notified of the shutter release timing based on the detection by the position detection means.
【請求項7】 上記位置検出手段の検出に基づいて上記
各撮像手段の移動速度が不適切な場合に撮影者に報告す
ることを特徴とする請求項5記載の立体形状抽出装置。
7. The three-dimensional shape extraction device according to claim 5, wherein when the moving speed of each of the image pickup means is inappropriate based on the detection by the position detection means, the photographer is notified.
【請求項8】 ズームレンズを有し移動可能に成された
撮像手段と、 上記撮像手段が移動しながら立体形状を抽出すべき主被
写体と既知の被写体とを複数回撮像する際に、上記主被
写体と既知の被写体とが上記撮像手段の視野に収まると
共に、上記主被写体が焦点深度内に収まるように撮像パ
ラメータを自動的に調整する調整手段と、 上記撮像した複数の画像を上記撮像パラメータを基に補
正処理して立体形状を得る補正手段とを備えた立体形状
抽出装置。
8. An image pickup means having a zoom lens and configured to be movable, and when the image pickup means picks up a main subject from which a three-dimensional shape is to be extracted and a known subject a plurality of times while moving, the main subject Adjusting means for automatically adjusting the imaging parameters so that the subject and the known subject fall within the field of view of the imaging means, and the main subject falls within the depth of focus; A solid shape extraction device including a correction means for performing a correction process to obtain a solid shape.
【請求項9】 上記既知の被写体の特徴点が常に上記撮
像手段の視野に収まるうに焦点距離を制御するようにし
たことを特徴とする請求項8記載の立体形状抽出装置。
9. The three-dimensional shape extraction device according to claim 8, wherein the focal length is controlled so that the known feature points of the subject are always within the visual field of the image pickup means.
【請求項10】 複数の既知の被写体の情報を保持する
保持手段と選択手段とを有し、上記選択手段からの信号
に応じて上記保持手段から既知の被写体の情報を選択的
に読み出すことを特徴とする請求項8記載の立体形状抽
出装置。
10. A holding means for holding information of a plurality of known subjects and a selecting means, wherein information of the known subject is selectively read from the holding means in response to a signal from the selecting means. The three-dimensional shape extraction device according to claim 8, which is characterized in that.
【請求項11】 上記主被写体の立体形状及び画素情報
を記録する記録手段を有し、上記撮像手段により撮り直
しを実行する場合に上記記録手段に既に記録されている
情報を読み出し、読み出した情報と現映像情報との間で
対応する領域を検出した後、入力を再開するようにした
請求項8記載の立体形状抽出装置。
11. A recording means for recording the three-dimensional shape and pixel information of the main subject, wherein the information already recorded in the recording means is read when re-imaging is performed by the imaging means, and the read information is read. 9. The three-dimensional shape extraction device according to claim 8, wherein the input is restarted after a corresponding area between the current image information and the current image information is detected.
【請求項12】 ズームレンズを有し移動可能に成され
た撮像手段と、 上記撮像手段が移動しながら立体形状を抽出すべき主被
写体と既知の被写体とを複数回撮像する際に、上記主被
写体と既知の被写体の特徴部が上記撮像手段の視野に収
まるように撮像パラメータを自動的に調整する調整手段
とを備えた撮像装置。
12. A movable image pickup means having a zoom lens, and the main image pickup means for picking up a main subject and a known subject for which a three-dimensional shape is to be extracted a plurality of times while moving the image pickup means. An image pickup apparatus comprising: a subject and an adjusting unit that automatically adjusts an image pickup parameter so that a characteristic part of a known subject falls within the visual field of the image pickup unit.
JP7193596A 1995-07-28 1995-07-28 3D shape extraction device Pending JPH0946730A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP7193596A JPH0946730A (en) 1995-07-28 1995-07-28 3D shape extraction device
US08/686,683 US6640004B2 (en) 1995-07-28 1996-07-26 Image sensing and image processing apparatuses
US10/429,686 US7164786B2 (en) 1995-07-28 2003-05-05 Image sensing and image processing apparatuses

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7193596A JPH0946730A (en) 1995-07-28 1995-07-28 3D shape extraction device

Publications (1)

Publication Number Publication Date
JPH0946730A true JPH0946730A (en) 1997-02-14

Family

ID=16310594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7193596A Pending JPH0946730A (en) 1995-07-28 1995-07-28 3D shape extraction device

Country Status (1)

Country Link
JP (1) JPH0946730A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007327882A (en) * 2006-06-08 2007-12-20 Konica Minolta Sensing Inc Three-dimensional shape measuring method and device, and focus adjusting method
KR100804798B1 (en) * 2006-03-16 2008-02-20 주식회사 에스원 Iris recognition system and method, security system and method using same
JP2010239564A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Imaging apparatus, imaging control method, and program
JP2011188004A (en) * 2010-03-04 2011-09-22 Victor Co Of Japan Ltd Three-dimensional video imaging device, three-dimensional video image processing apparatus and three-dimensional video imaging method
WO2016084226A1 (en) * 2014-11-28 2016-06-02 株式会社ニコン Three-dimensional shape measurement device, three-dimensional shape measurement method, structure production system, structure production method, and three-dimensional shape measurement program
JP2018082416A (en) * 2016-03-18 2018-05-24 パナソニックIpマネジメント株式会社 Image generating apparatus, image generating method, and program
JP2019533957A (en) * 2016-10-28 2019-11-21 華為技術有限公司Huawei Technologies Co.,Ltd. Photography method for terminal and terminal

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0252204A (en) * 1988-08-15 1990-02-21 Nippon Telegr & Teleph Corp <Ntt> Measuring instrument for three-dimensional coordinate
JPH0493705A (en) * 1990-08-09 1992-03-26 Topcon Corp 3D position measuring device and measuring method
JPH04315906A (en) * 1991-04-16 1992-11-06 Fujitsu Ltd Apperance examining device
JPH05196437A (en) * 1992-01-20 1993-08-06 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional information input device
JPH06186036A (en) * 1992-12-16 1994-07-08 Taisei Corp Three-dimensional position measuring device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0252204A (en) * 1988-08-15 1990-02-21 Nippon Telegr & Teleph Corp <Ntt> Measuring instrument for three-dimensional coordinate
JPH0493705A (en) * 1990-08-09 1992-03-26 Topcon Corp 3D position measuring device and measuring method
JPH04315906A (en) * 1991-04-16 1992-11-06 Fujitsu Ltd Apperance examining device
JPH05196437A (en) * 1992-01-20 1993-08-06 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional information input device
JPH06186036A (en) * 1992-12-16 1994-07-08 Taisei Corp Three-dimensional position measuring device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100804798B1 (en) * 2006-03-16 2008-02-20 주식회사 에스원 Iris recognition system and method, security system and method using same
JP2007327882A (en) * 2006-06-08 2007-12-20 Konica Minolta Sensing Inc Three-dimensional shape measuring method and device, and focus adjusting method
JP2010239564A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Imaging apparatus, imaging control method, and program
US8441518B2 (en) 2009-03-31 2013-05-14 Casio Computer Co., Ltd. Imaging apparatus, imaging control method, and recording medium
JP2011188004A (en) * 2010-03-04 2011-09-22 Victor Co Of Japan Ltd Three-dimensional video imaging device, three-dimensional video image processing apparatus and three-dimensional video imaging method
WO2016084226A1 (en) * 2014-11-28 2016-06-02 株式会社ニコン Three-dimensional shape measurement device, three-dimensional shape measurement method, structure production system, structure production method, and three-dimensional shape measurement program
JP2018082416A (en) * 2016-03-18 2018-05-24 パナソニックIpマネジメント株式会社 Image generating apparatus, image generating method, and program
JP2019533957A (en) * 2016-10-28 2019-11-21 華為技術有限公司Huawei Technologies Co.,Ltd. Photography method for terminal and terminal
US10827107B2 (en) 2016-10-28 2020-11-03 Huawei Technologies Co., Ltd. Photographing method for terminal and terminal

Similar Documents

Publication Publication Date Title
US6445814B2 (en) Three-dimensional information processing apparatus and method
US7164786B2 (en) Image sensing and image processing apparatuses
KR101481830B1 (en) Composition determination device, composition determination method, and recording medium
US7729602B2 (en) Camera using multiple lenses and image sensors operable in a default imaging mode
US7683962B2 (en) Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
CN101241222B (en) Focus adjusting device, image pickup apparatus, and focus adjustment method
JP5154392B2 (en) Imaging device
CN102457681B (en) Image processing apparatus and image processing method
US8648961B2 (en) Image capturing apparatus and image capturing method
EP2096603A1 (en) Image processing apparatus, method, and program
WO2011162227A1 (en) Stereoscopic panoramic image synthesis device, image capturing device, stereoscopic panoramic image synthesis method, recording medium, and computer program
JP2010091669A (en) Imaging device
JP4596246B2 (en) Auto focus system
JPH1021401A (en) 3D information processing device
JPH0918773A (en) Imaging device
JPH0946730A (en) 3D shape extraction device
JPH09305796A (en) Image information processing device
JPH09211308A (en) Mechanism for detecting object of automatic focusing image pickup unit
JP2011217334A (en) Imaging apparatus and method of controlling the same
US20090244264A1 (en) Compound eye photographing apparatus, control method therefor , and program
JP5023750B2 (en) Ranging device and imaging device
KR101599434B1 (en) Spatial sensing device and method for spatial sensing of image sensing device using auto focus control
JPH09231369A (en) Image information input device
JP2009169884A (en) Image capturing apparatus, image capturing apparatus control method, image reproducing apparatus and method, and program
JP2010096963A (en) Auto focus system with af frame auto-tracking function

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050927