JP2000307947A - Image processing apparatus and method - Google Patents
Image processing apparatus and methodInfo
- Publication number
- JP2000307947A JP2000307947A JP11109189A JP10918999A JP2000307947A JP 2000307947 A JP2000307947 A JP 2000307947A JP 11109189 A JP11109189 A JP 11109189A JP 10918999 A JP10918999 A JP 10918999A JP 2000307947 A JP2000307947 A JP 2000307947A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distortion
- reference image
- plane
- measuring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、デジタルスチル
カメラなどに用いられ、被写体面を撮影した画像の斜め
撮影による歪みの補正を行う画像処理装置及びその方法
に関する。[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus and a method for correcting distortion caused by oblique photographing of an image of a subject surface, which is used in a digital still camera or the like.
【0002】[0002]
【従来の技術】コンピュータ・ネットワークの急速な進
歩とともにビジネスの在り方も多様化し、あらゆる局面
で重要な情報を素早く取得する必要性が生じている。そ
れに伴い、携帯型の入力装置を用いて平面状の文書や写
真を簡便かつ高精度に入力することへの要求が高まって
いる。現状では、デジタルスチルカメラのような画像入
力装置を用いて、A4程度の大きさの紙面文書等の被写体
面を撮影した画像情報を活用するという応用例がある。2. Description of the Related Art With the rapid progress of computer networks, business modes have diversified, and the need to quickly obtain important information in all aspects has arisen. Accordingly, there is an increasing demand for simple and highly accurate input of a planar document or photograph using a portable input device. At present, there is an application example in which an image input device such as a digital still camera is used to utilize image information obtained by photographing a subject surface such as a paper document of about A4 size.
【0003】しかしこの応用例においては、上記装置の
撮像面が紙面に対して平行でない状態で撮影した場合、
撮影した画像に遠近効果による歪みが生じるという不具
合がある。However, in this application example, when the image is taken in a state where the imaging surface of the device is not parallel to the paper surface,
There is a problem in that the captured image is distorted due to the perspective effect.
【0004】これに対して、特開平3-94383号公報に
は、既知の固定形状を想定し、この固定形状内に入力画
像を配置して、固定形状の歪み方を調べることにより、
本来の平面上での形状になる変換パラメータを発見し、
斜め撮影による画像の歪みを補正するという技術が開示
されている。On the other hand, Japanese Patent Application Laid-Open No. Hei 3-94383 discloses a method of assuming a known fixed shape, arranging an input image in the fixed shape, and examining the distortion of the fixed shape.
Find the transformation parameters that will be the shape on the original plane,
A technique for correcting image distortion due to oblique shooting has been disclosed.
【0005】また、特開平5-101221号公報においては、
被写体面に直交格子を導入し、各格子点の空間座標を求
め、撮像面に設けられた座標系に直交変換を施して射影
することにより、画像歪みを補正するという技術が開示
されている。In Japanese Patent Application Laid-Open No. 5-101221,
A technique has been disclosed in which an orthogonal lattice is introduced into an object plane, spatial coordinates of each lattice point are obtained, and orthogonal transformation is performed on a coordinate system provided on an imaging surface and projected to correct image distortion.
【0006】特開平9-289600号公報においては、カメラ
の撮像面と被写体面とのなす傾斜角を入力する角度設定
手段と、被写体までの距離を測定する測距手段を設け、
角度設定手段を用いて傾斜角を入力した状態で被写体を
撮影することにより、上記傾斜角と測距手段で検出され
た被写体距離に基づいて、被写体を正面から見た画像に
補正するという技術が開示されている。In Japanese Patent Application Laid-Open No. 9-289600, there are provided angle setting means for inputting an inclination angle between an imaging surface of a camera and a subject surface, and distance measuring means for measuring a distance to a subject.
A technique is known in which a subject is photographed in a state in which the tilt angle is input using an angle setting unit, and the subject is corrected to an image viewed from the front based on the tilt angle and the subject distance detected by the distance measuring unit. It has been disclosed.
【0007】特開平10-79878号公報においては、撮像面
を走査させて被写体を周期的に撮像した分割画像を、ア
フィン変換などの2次元の座標変換処理によって繋ぎ合
わせた合成画像において、同じ連結成分ごとにラベル付
けし、ラベル付けされた画像の連結成分をその大きさに
よって直線、文字及び図形に分類し、分類された直線或
いは文字基線の傾きを評価し、文字の外接矩形と直線の
距離を保持して、評価された傾きの分だけ直線を回転さ
せて補正することにより、解像度の高い画像を得るとい
う静止画像撮像装置が開示されている。In Japanese Patent Application Laid-Open No. 10-79878, a combined image obtained by joining divided images obtained by periodically scanning a subject by scanning an imaging surface by two-dimensional coordinate transformation processing such as affine transformation is the same. Label each component, classify the connected components of the labeled image into straight lines, characters and figures according to their size, evaluate the slope of the classified straight line or character base line, and distance between the circumscribed rectangle of the character and the straight line A still image capturing apparatus that obtains an image with high resolution by rotating the straight line by an amount corresponding to the evaluated inclination and correcting the corrected inclination is disclosed.
【0008】[0008]
【発明が解決しようとする課題】しかし、特開平3-9438
3号公報に開示の技術では、撮影対象を形状が既知の固
定図形内に配置する必要があり、紙面を撮影するために
面倒な作業が必要である。SUMMARY OF THE INVENTION However, Japanese Patent Laid-Open No. 3-9438
According to the technique disclosed in Japanese Patent Publication No. 3 (1995), it is necessary to dispose an object to be photographed in a fixed figure having a known shape, and a cumbersome operation is required to photograph a sheet.
【0009】また、特開平5-101221号公報に開示の技術
では、被写体面に直交格子を重ねあわせ、各格子点の2
次元座標を手動で入力するという作業が必要であり、簡
便な動作で被写体面を撮影するのは極めて困難である。In the technique disclosed in Japanese Patent Application Laid-Open No. 5-101221, an orthogonal grid is superimposed on a subject plane, and two grid points of each grid point are overlapped.
An operation of manually inputting the dimensional coordinates is required, and it is extremely difficult to photograph the subject surface with a simple operation.
【0010】さらに、特開平9-289600号公報に開示の技
術では、角度設定手段を操作して撮像面と被写体面との
なす傾斜角を正確に手動入力するのは非常に困難であ
り、その結果高い精度で画像の歪みを補正するのも困難
になる。Furthermore, in the technique disclosed in Japanese Patent Application Laid-Open No. 9-289600, it is very difficult to manually input the inclination angle between the imaging surface and the object surface by operating the angle setting means. As a result, it becomes difficult to correct image distortion with high accuracy.
【0011】また前記応用例においては、新聞紙等の大
面積の紙面情報やパネルや壁に描かれた情報を、上記装
置で高い解像度で読み込むことが極めて困難であるとい
う不具合もある。In the above-mentioned application example, there is also a disadvantage that it is extremely difficult to read information on a large area such as a newspaper or information drawn on a panel or a wall with a high resolution by the above-mentioned apparatus.
【0012】そこで、携帯可能な画像入力装置でこれら
の大きな被写体を分割撮影して、得られた複数枚の画像
を貼り合わせて、1枚の合成画像を作成して解像度の高
い画像を得るという技術がある。その例が前記特開平10
-79878号公報に開示の技術である。Therefore, these large subjects are divided and photographed by a portable image input device, and a plurality of obtained images are pasted together to form one composite image to obtain a high-resolution image. There is technology. An example is described in
This is a technique disclosed in Japanese Patent Publication No. -79878.
【0013】しかし、一般に各々の分割画像を撮像した
時の撮像装置の文書に対する姿勢はそれぞれ異なるの
で、前記合成画像の画面上の位置によって直線や文字基
線の傾きはまちまちである。そのため、合成画像の至る
所で上記ラベル付け、傾きの評価、回転補正を行う必要
があり、処理が非常に煩雑となる。However, in general, the orientation of the image pickup apparatus with respect to the document when each divided image is picked up is different, so that the inclination of the straight line or the character base line varies depending on the position of the composite image on the screen. For this reason, it is necessary to perform the labeling, the evaluation of the inclination, and the rotation correction everywhere in the composite image, and the processing becomes very complicated.
【0014】この発明の目的は、撮像面と被写体面とが
互いに傾いた状態で撮影された画像の歪みを補正し、か
つこれらの画像から歪みの補正された合成画像を簡単に
作成することである。An object of the present invention is to correct distortion of an image photographed in a state where an imaging surface and a subject surface are inclined with respect to each other, and to easily create a composite image with the distortion corrected from these images. is there.
【0015】[0015]
【課題を解決するための手段】請求項1に記載の発明
は、被写体面を撮像する撮像手段と、この撮像手段を基
準とした前記被写体面の向きを計測する平面計測手段
と、この計測した被写体面の向きに基づいて前記撮像手
段が撮像した画像の斜め撮影による歪みを補正する画像
歪み補正手段と、を備えている画像処理装置である。According to a first aspect of the present invention, there is provided an image pickup means for picking up an image of an object surface, a plane measuring means for measuring the orientation of the object surface with reference to the image pickup means, An image processing apparatus comprising: an image distortion correction unit configured to correct distortion caused by oblique imaging of an image captured by the imaging unit based on a direction of a subject surface.
【0016】したがって、任意の被写体面を任意の視点
・姿勢で撮影した場合でも、平面を計測することによ
り、簡便に画像の歪みを補正することができる。Therefore, even when an arbitrary object plane is photographed at an arbitrary viewpoint and posture, the distortion of the image can be easily corrected by measuring the plane.
【0017】請求項2に記載の発明は、先に撮像された
画像と一部が重複するように複数の視点から被写体を撮
像する撮像手段と、この撮像手段を基準とした前記被写
体面の向きを計測する平面計測手段と、ある画像を基準
画像とし、この基準画像と重複する部分をもつ画像を参
照画像とした場合に、前記基準画像において複数の特徴
点を抽出するとともに、前記参照画像において前記特徴
点と同一の個所を示す対応点を検出する対応検出手段
と、この対応検出手段が検出した前記特徴点と前記対応
点との関係に基づいて、前記基準画像を前記参照画像上
に座標変換することにより画像を貼り合せる画像貼り合
わせ手段と、前記平面計測手段が計測した被写体面の向
きに基づいて前記画像貼り合わせ手段が貼り合わせた画
像の斜め撮影による歪みを補正する合成画像歪み補正手
段と、を備えている画像処理装置である。According to a second aspect of the present invention, there is provided an image pickup means for picking up an image of a subject from a plurality of viewpoints so that a part of the image is overlapped with the previously picked-up image; And a plane measuring means for measuring a certain image as a reference image, and when an image having a portion overlapping with the reference image is used as a reference image, a plurality of feature points are extracted in the reference image, and in the reference image, Correspondence detection means for detecting a corresponding point indicating the same point as the feature point, and coordinates of the reference image on the reference image based on a relationship between the feature point and the corresponding point detected by the correspondence detection means. An image pasting unit for pasting the images by conversion, and oblique photographing of the image pasted by the image pasting unit based on the orientation of the object plane measured by the plane measuring unit. A synthetic image distortion correction means for correcting only an image processing apparatus which comprises a.
【0018】したがって、任意の被写体面を任意の視点
・姿勢で撮影した複数の画像を貼り合わせた画像を、計
測した被写体面の向きを用いて座標変換することによ
り、簡便に歪みのない合成画像を作成することができ
る。Therefore, by combining a plurality of images obtained by photographing an arbitrary object plane with an arbitrary viewpoint and posture and using the measured orientation of the object plane, coordinate conversion is performed, so that a composite image without distortion can be easily obtained. Can be created.
【0019】請求項3に記載の発明は、先に撮像された
画像と一部が重複するように複数の視点から被写体を撮
像する撮像手段と、この撮像手段を基準とした前記被写
体面の向きを計測する平面計測手段と、この計測した被
写体面の向きに基づいて前記撮像手段が撮像した画像の
斜め撮影による歪みを補正する画像歪み補正手段と、こ
の補正した複数の画像のうち、ある画像を基準画像と
し、この基準画像と重複する部分をもつ画像を参照画像
とした場合に、前記基準画像において複数の特徴点を抽
出するとともに、前記参照画像において前記特徴点と同
一の個所を示す対応点を検出する対応検出手段と、この
対応検出手段が検出した前記特徴点と前記対応点との関
係に基づいて、前記基準画像を前記参照画像上に座標変
換することにより画像を貼り合せる画像貼り合わせ手段
と、を備えている画像処理装置である。According to a third aspect of the present invention, there is provided an image pickup means for picking up an object from a plurality of viewpoints so that a part of the image is overlapped with the previously picked up image, and an orientation of the object plane with respect to the image pickup means. Plane measuring means for measuring the image orientation, image distortion correcting means for correcting distortion due to oblique photographing of the image taken by the imaging means based on the measured orientation of the subject surface, and an image of the corrected plurality of images Is used as a reference image, and when an image having a portion overlapping with the reference image is used as a reference image, a plurality of feature points are extracted in the reference image, and the same point as the feature point is indicated in the reference image. Correspondence detection means for detecting a point, and image conversion by transforming the reference image onto the reference image based on a relationship between the feature point and the corresponding point detected by the correspondence detection means. And be bonded image joining means is an image processing apparatus which comprises a.
【0020】したがって、任意の被写体面を任意の視点
・姿勢で撮影した場合でも、平面を計測することによ
り、簡便に各画像の歪みを補正することができる。Therefore, even when an arbitrary object plane is photographed at an arbitrary viewpoint and posture, the distortion of each image can be easily corrected by measuring the plane.
【0021】請求項4に記載の発明は、請求項1〜3の
いずれかの一に記載の画像処理装置において、前記平面
計測手段は、前記撮像手段を基準とした前記被写体面の
距離も計測するものであり、前記画像歪み補正手段およ
び合成画像歪み補正手段は、前記距離に比例した拡大係
数も用いて画像の斜め撮影による歪みを補正するもので
あるである。According to a fourth aspect of the present invention, in the image processing apparatus according to any one of the first to third aspects, the plane measuring means also measures a distance of the object plane with respect to the imaging means. The image distortion correcting means and the composite image distortion correcting means correct distortion caused by oblique photographing of an image using an enlargement coefficient proportional to the distance.
【0022】したがって、平面を計測して得られた距離
情報を用いて、被写体面を撮影した各画像の歪みを補正
することにより、各歪み補正画像における被写体像の大
きさをほぼ等しくすることができる。Therefore, by correcting the distortion of each image obtained by photographing the object plane using the distance information obtained by measuring the plane, the size of the object image in each distortion corrected image can be made substantially equal. it can.
【0023】請求項5に記載の発明は、請求項1〜4の
いずれかの一に記載の画像処理装置において、前記画像
歪み補正手段または合成画像歪み補正手段により補正さ
れた画像の画面上での傾きを補正する傾き補正手段を備
えている。According to a fifth aspect of the present invention, there is provided the image processing apparatus according to any one of the first to fourth aspects, wherein an image corrected by the image distortion correcting means or the composite image distortion correcting means is displayed on a screen. Is provided.
【0024】したがって、撮影した各々の画像や貼り合
わせた画像における被写体像の歪み・傾きを補正するこ
とができる。Therefore, it is possible to correct the distortion and inclination of the subject image in each of the photographed images and the bonded images.
【0025】請求項6に記載の発明は、撮像手段により
被写体面を撮像する工程と、前記撮像手段を基準とした
前記被写体面の向きを計測する工程と、この計測した被
写体面の向きに基づいて前記撮像手段が撮像した画像の
斜め撮影による歪みを補正する工程と、を含んでなる画
像処理方法である。According to a sixth aspect of the present invention, there is provided a method of imaging an object plane by an imaging means, a step of measuring an orientation of the object plane with respect to the imaging means, and a step of measuring the orientation of the measured object plane. Correcting the distortion of the image captured by the image capturing means due to oblique shooting.
【0026】したがって、任意の被写体面を任意の視点
・姿勢で撮影した場合でも、平面を計測することによ
り、簡便に画像の歪みを補正することができる。Therefore, even when an arbitrary object plane is photographed at an arbitrary viewpoint and posture, the distortion of the image can be easily corrected by measuring the plane.
【0027】請求項7に記載の発明は、撮像手段により
先に撮像された画像と一部が重複するように複数の視点
から被写体を撮像する工程と、前記撮像手段を基準とし
た前記被写体面の向きを計測する工程と、ある画像を基
準画像とし、この基準画像と重複する部分をもつ画像を
参照画像とした場合に、前記基準画像において複数の特
徴点を抽出するとともに、前記参照画像において前記特
徴点と同一の個所を示す対応点を検出する工程と、この
工程で検出した前記特徴点と前記対応点との関係に基づ
いて、前記基準画像を前記参照画像上に座標変換するこ
とにより画像を貼り合せる工程と、前記計測工程で計測
した被写体面の向きに基づいて前記貼り合わせ工程で貼
り合わせた画像の斜め撮影による歪みを補正する工程
と、を含んでなる画像処理方法である。According to a seventh aspect of the present invention, there is provided a method of imaging a subject from a plurality of viewpoints so that a part of the image is overlapped with an image previously taken by the imaging means, Measuring the orientation of the, and a certain image as a reference image, when an image having a portion overlapping with the reference image is a reference image, while extracting a plurality of feature points in the reference image, in the reference image A step of detecting a corresponding point indicating the same point as the feature point, and, based on a relationship between the feature point and the corresponding point detected in this step, by performing coordinate conversion on the reference image on the reference image, An image bonding step, and a step of correcting distortion due to oblique photographing of the image bonded in the bonding step based on the orientation of the subject surface measured in the measurement step. It is a processing method.
【0028】したがって、任意の被写体面を任意の視点
・姿勢で撮影した複数の画像を貼り合わせた画像を、計
測した被写体面の向きを用いて座標変換することによ
り、簡便に歪みのない合成画像を作成することができ
る。Therefore, by combining a plurality of images obtained by photographing an arbitrary object plane with an arbitrary viewpoint and posture and using the measured orientation of the object plane, coordinate conversion is performed, so that a composite image without distortion can be easily obtained. Can be created.
【0029】請求項8に記載の発明は、撮像手段により
先に撮像された画像と一部が重複するように複数の視点
から被写体を撮像する工程と、前記撮像手段を基準とし
た前記被写体面の向きを計測する工程と、この計測した
被写体面の向きに基づいて前記撮像手段が撮像した画像
の斜め撮影による歪みを補正する工程と、この補正した
複数の画像のうち、ある画像を基準画像とし、この基準
画像と重複する部分をもつ画像を参照画像とした場合
に、前記基準画像において複数の特徴点を抽出するとと
もに、前記参照画像において前記特徴点と同一の個所を
示す対応点を検出する工程と、この工程で検出した前記
特徴点と前記対応点との関係に基づいて、前記基準画像
を前記参照画像上に座標変換することにより画像を貼り
合せる工程と、を含んでなる画像処理方法である。The invention according to claim 8 is a step of taking an image of a subject from a plurality of viewpoints such that a part of the subject is overlapped with an image previously taken by the image taking means, Measuring the orientation of the subject, correcting the distortion of the image captured by the imaging unit due to oblique shooting based on the measured orientation of the subject surface, and setting a certain image of the corrected plurality of images as a reference image. When an image having a portion overlapping with the reference image is used as a reference image, a plurality of feature points are extracted from the reference image, and a corresponding point indicating the same point as the feature point is detected in the reference image. Performing a coordinate conversion of the reference image onto the reference image based on the relationship between the feature points and the corresponding points detected in this step, and bonding the images together. The image processing method comprising at.
【0030】したがって、任意の被写体面を任意の視点
・姿勢で撮影した場合でも、平面を計測することによ
り、簡便に各画像の歪みを補正することができる。Therefore, even when an arbitrary object plane is photographed at an arbitrary viewpoint and posture, the distortion of each image can be easily corrected by measuring the plane.
【0031】請求項9に記載の発明は、請求項6〜8の
いずれかの一に記載の画像処理方法において、前記計測
工程は、前記撮像手段を基準とした前記被写体面の距離
も計測するものであり、前記補正工程は、前記距離に比
例した拡大係数も用いて画像の斜め撮影による歪みを補
正するものである。According to a ninth aspect of the present invention, in the image processing method according to any one of the sixth to eighth aspects, the measuring step also measures a distance of the object plane with respect to the imaging means. In the correcting step, distortion due to oblique photographing of an image is corrected using an enlargement coefficient proportional to the distance.
【0032】したがって、平面を計測して得られた距離
情報を用いて、被写体面を撮影した各画像の歪みを補正
することにより、各歪み補正画像における被写体像の大
きさをほぼ等しくすることができる。Therefore, by correcting the distortion of each image obtained by photographing the object plane using the distance information obtained by measuring the plane, the size of the object image in each distortion corrected image can be made substantially equal. it can.
【0033】請求項10に記載の発明は、請求項6〜9
のいずれかの一に記載の画像処理方法において、前記補
正工程で補正された画像の画面上での傾きを補正する工
程を含んでなる。The invention according to claim 10 is the invention according to claims 6 to 9
The image processing method according to any one of the above, further comprising a step of correcting a tilt on a screen of the image corrected in the correction step.
【0034】したがって、撮影した各々の画像や貼り合
わせた画像における被写体像の歪み・傾きを補正するこ
とができる。Therefore, it is possible to correct the distortion and inclination of the subject image in each of the photographed images and the bonded images.
【0035】[0035]
【発明の実施の形態】[発明の実施の形態1]図1に示
すような被写体面を撮影した時に生じる画像の歪みを補
正する画像処理装置1の構成・動作について以下に説明
する。図2は、この発明の実施の形態1である画像処理
装置1の構成を示すブロック図である。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [First Embodiment of the Invention] The configuration and operation of an image processing apparatus 1 for correcting an image distortion generated when a subject surface as shown in FIG. 1 is photographed will be described below. FIG. 2 is a block diagram illustrating a configuration of the image processing apparatus 1 according to the first embodiment of the present invention.
【0036】すなわち画像処理装置1は、撮像手段2
と、撮像手段2により得られた画像信号に処理を施す信
号処理手段3と、信号処理手段3の出力が供給されるメ
モリ制御手段4、主制御手段5及びインターフェース
(以下I/Fと略す)6と、メモリ制御手段4の指令に
より画像信号を蓄積するフレームメモリ7と、I/F6
を経由して画像信号を表示する表示手段8と、I/F6
を経由して画像信号をはじめとする種々の信号の読み書
きを行う外部記憶手段9とを有する。その他、撮像手段
2を基準にした被写体面の向きを計測する平面計測手段
10と、平面計測手段10の出力した前記被写体面の向
きを基に、撮影した画像における斜め撮影による歪みを
補正する画像歪み補正手段11をも有している。That is, the image processing apparatus 1 includes
A signal processing unit 3 for processing an image signal obtained by the imaging unit 2; a memory control unit 4 to which an output of the signal processing unit 3 is supplied; a main control unit 5; and an interface (hereinafter abbreviated as I / F) 6, a frame memory 7 for storing image signals according to a command from the memory control means 4, an I / F 6
A display unit 8 for displaying an image signal via the I / F 6
And an external storage means 9 for reading and writing various signals including an image signal via the CPU. In addition, a plane measuring unit 10 for measuring the orientation of the subject plane based on the imaging unit 2, and an image for correcting distortion due to oblique photographing in the photographed image based on the orientation of the subject plane output from the plane measuring unit 10. It also has a distortion correction means 11.
【0037】以下、各ブロックの詳細を説明する。撮像
手段2は、レンズ12、絞り13、シャッタ14、光電
変換素子15及び前処理手段16より構成されている。
光電変換素子15には、例えばCCD(charge coupled de
vice)が使用される。また前処理手段16は、プリアン
プやAGC(auto gain controll)等のアナログ信号処理
やアナログ−デジタル変換器(以下A/D変換器と略す)
を備えており、光電変換素子15より出力されたアナロ
グ映像信号に対して増幅・クランプ等の前処理を施した
後、上記アナログ映像信号をデジタル映像信号に変換す
る。The details of each block will be described below. The imaging means 2 includes a lens 12, an aperture 13, a shutter 14, a photoelectric conversion element 15, and a preprocessing means 16.
The photoelectric conversion element 15 includes, for example, a charge coupled device (CCD).
vice) is used. Further, the pre-processing means 16 includes an analog signal processing such as a preamplifier and an AGC (auto gain control) or an analog-digital converter (hereinafter abbreviated as an A / D converter).
After performing preprocessing such as amplification and clamping on the analog video signal output from the photoelectric conversion element 15, the analog video signal is converted into a digital video signal.
【0038】信号処理手段3は、デジタル信号処理プロ
セッサ(DSPプロセッサ)等により構成されており、撮
像手段2より得られたデジタル映像信号に対して色分
解、ホワイトバランス調整、γ補正等の種々の画像処理
を施す。メモリ制御手段4は、こうして処理された画像
信号をフレームメモリ7に格納したり、逆にフレームメ
モリ7に格納された画像信号を読み出す。フレームメモ
リ7は、少なくとも1枚の画像を格納可能であり、一般
的にVRAM、SRAM、DRAM等が使用される。フレームメモリ
7から読み出された画像信号の記録は、信号処理手段3
において画像信号に対して画像圧縮等の信号処理を施し
た後、I/F6を介して外部記憶手段9に保存すること
によって行われる。外部記憶手段9は、ICメモリカード
や光磁気ディスク等が使用できるが、モデムカードやIS
DNカードを利用して、ネットワークを経由して画像信号
を直接遠隔地の記録媒体に送信しても構わない。逆に、
外部記憶手段9に記録された画像信号の読み出しは、I
/F6を介して信号処理手段3に画像信号を送信し、信
号処理手段3において画像伸張を施すことによって行わ
れる。一方、外部記憶手段9及びフレームメモリ7から
読み出された画像信号の表示は、信号処理手段3におい
て画像信号に対してデジタル−アナログ変換(以後D/A
変換と略す)や増幅等の信号処理を施した後、I/F6
を介して表示手段8に送信することによって行われる。
表示手段8は、例えば画像処理装置1の筐体に設置され
た液晶表示装置より構成される。The signal processing means 3 is composed of a digital signal processor (DSP processor) and the like. The digital video signal obtained from the imaging means 2 is subjected to various kinds of color separation, white balance adjustment, γ correction and the like. Perform image processing. The memory control means 4 stores the processed image signal in the frame memory 7 and reads the image signal stored in the frame memory 7 on the contrary. The frame memory 7 can store at least one image, and generally uses VRAM, SRAM, DRAM, or the like. The recording of the image signal read from the frame memory 7 is performed by the signal processing unit 3.
After the image signal is subjected to signal processing such as image compression in, the image signal is stored in the external storage unit 9 via the I / F 6. The external storage means 9 can use an IC memory card, a magneto-optical disk, or the like.
An image signal may be directly transmitted to a remote recording medium via a network using a DN card. vice versa,
Reading of the image signal recorded in the external storage means 9 is performed according to I
This is performed by transmitting an image signal to the signal processing unit 3 via / F6 and performing image expansion in the signal processing unit 3. On the other hand, the display of the image signal read from the external storage unit 9 and the frame memory 7 is performed by the signal processing unit 3 by performing digital-analog conversion (hereinafter referred to as D / A
After performing signal processing such as conversion) and amplification, the I / F 6
Is transmitted to the display means 8 via the.
The display unit 8 is configured by, for example, a liquid crystal display device installed in a housing of the image processing apparatus 1.
【0039】平面計測手段10は、各々の画像を撮影す
る時の、画像処理装置1に対する被写体面の向きを計測
する。平面計測手段10は一例として図3のように、ス
ポット光源21、受光素子22、3次元座標算出手段2
3、平面算出手段34より構成される。スポット光源2
1は発光ダイオードや半導体レーザー等の光源25、ポ
リゴンミラーなどの走査ミラー26及び走査ミラー26
の動きを制御する駆動手段27より構成され、光源25
より発生したスポット光が被写体面に当たるように光の
向きを制御する部分であり、その光の向きは駆動手段2
7より出力される信号により検出される。受光素子22
は、スポット光源21と位置関係が既知である場所に設
置されたPSD(position sensitive detector)やCCD等
の光電変換素子より構成され、被写体面より戻ってきた
反射光の向きを検出する。3次元座標算出手段23は、
スポット光源21の照射したスポット光の向き、スポッ
ト光源21と受光素子22との位置関係、及び受光素子
22が検出した反射光の向きより、三角測量の原理で画
像処理装置1を基準にした被写体面の3次元座標(X,
Y,Z)を算出する。平面算出手段34は、3次元座標
算出手段23が算出した、同一直線上にない3点以上の
3次元座標を用いて、平面方程式を推定する。例えば、
求める平面方程式を、The plane measuring means 10 measures the direction of the object plane with respect to the image processing apparatus 1 when each image is photographed. As an example, the plane measuring means 10 includes a spot light source 21, a light receiving element 22, and a three-dimensional coordinate calculating means 2 as shown in FIG.
3. It is composed of a plane calculating means 34. Spot light source 2
Reference numeral 1 denotes a light source 25 such as a light emitting diode or a semiconductor laser, a scanning mirror 26 such as a polygon mirror, and a scanning mirror 26.
The light source 25 comprises driving means 27 for controlling the movement of the light source.
This is a part for controlling the direction of light so that the generated spot light hits the object surface.
7 to be detected. Light receiving element 22
Is configured by a photoelectric conversion element such as a PSD (position sensitive detector) or a CCD installed at a location whose positional relationship with the spot light source 21 is known, and detects the direction of reflected light returning from the subject surface. The three-dimensional coordinate calculation means 23
An object based on the principle of triangulation based on the principle of triangulation from the direction of the spot light emitted by the spot light source 21, the positional relationship between the spot light source 21 and the light receiving element 22, and the direction of the reflected light detected by the light receiving element 22. 3D coordinates of the surface (X,
Y, Z) are calculated. The plane calculation unit 34 estimates a plane equation using the three-dimensional coordinates of three or more points that are not on the same straight line, calculated by the three-dimensional coordinate calculation unit 23. For example,
The required plane equation is
【0040】[0040]
【数1】 とおき、N点の3次元座標(Xi,Yi,Zi)(i=
1,…,N)を用いて、上記平面方程式の4つのパラメ
ータ(a,b,c,d)を、次式で示す最小自乗法によ
り算出する。(Equation 1) And the three-dimensional coordinates (X i , Y i , Z i ) of N points (i =
1,..., N), the four parameters (a, b, c, d) of the above plane equation are calculated by the least square method shown by the following equation.
【0041】[0041]
【数2】 画像歪み補正手段11は、平面計測手段10が出力した
被写体面の向きを表す3つのパラメータ(a,b,c)
を用いて、被写体面を正面から撮影した画像に変換する
ことにより、斜め撮影による画像の歪みを補正する。本
実施の形態では図4のように、平面計測手段10が計測
した被写体面に平行な平面を被投影面として、該被投影
面に向かって歪んだ被写体像を持つ画像を投影すること
により、画像の歪みを補正する。このようにして歪みが
補正された画像を、以下歪み補正画像と呼ぶ。以下、歪
み補正画像を作成する方法について、詳細に説明する。(Equation 2) The image distortion correcting means 11 includes three parameters (a, b, c) representing the direction of the object plane output by the plane measuring means 10
Is used to convert the object plane into an image taken from the front, thereby correcting image distortion due to oblique shooting. In the present embodiment, as shown in FIG. 4, a plane parallel to the object plane measured by the plane measuring means 10 is set as a plane to be projected, and an image having an object image distorted toward the plane to be projected is projected. Correct image distortion. The image whose distortion has been corrected in this manner is hereinafter referred to as a distortion corrected image. Hereinafter, a method of creating a distortion-corrected image will be described in detail.
【0042】まず、画像座標(x,y)に対応する視線
の向きを定める。撮像手段2の光学系は図5のように、 x軸:画像面右向きを正 y軸:画像面下向きを正 z軸:光軸方向;対象に向かう向きを正 原点0:撮像手段2の光学中心 f:焦点距離 とする中心射影モデルであると仮定し、以後このxyz
座標系を装置座標系と呼ぶ。すると、(x,y)に対応
する視線の向きは、装置座標系を基準にした次の3次元
ベクトルPで表すことができる。First, the direction of the line of sight corresponding to the image coordinates (x, y) is determined. As shown in FIG. 5, the optical system of the imaging means 2 is as follows: x-axis: positive to the right of the image surface y-axis: positive to the downward direction of the image plane z-axis: optical axis direction; positive to the target Origin 0: optics of the imaging means 2 The center is assumed to be a center projection model with f: focal length.
The coordinate system is called a device coordinate system. Then, the direction of the line of sight corresponding to (x, y) can be represented by the next three-dimensional vector P based on the device coordinate system.
【0043】[0043]
【数3】 次に図6のように、装置座標系のz軸を、被投影面の単
位法線ベクトルに変換するような回転行列Rを求める。
この場合、次の関係式が成立する。(Equation 3) Next, as shown in FIG. 6, a rotation matrix R for converting the z-axis of the apparatus coordinate system into a unit normal vector of the projection target surface is obtained.
In this case, the following relational expression holds.
【0044】[0044]
【数4】 (4)式を満たす回転行列Rは多数存在するが、ここでは
回転行列Rを次式のように定義する。(Equation 4) Although there are many rotation matrices R satisfying the expression (4), here, the rotation matrix R is defined as the following expression.
【0045】[0045]
【数5】 これは図7のように、以下の順序で装置座標系を回転さ
せることに相当する。 (1) 装置座標系を、y軸回りにβだけ回転する。この回
転によりできる座標系をx1y1z1座標系とする。 (2) 装置座標系を、x1軸回りにαだけ回転する この時、a2+b2+c2=1(c>0)、及び(4)〜(6)
式を用いると、回転角α,βは次式のように導出され
る。(Equation 5) This corresponds to rotating the device coordinate system in the following order as shown in FIG. (1) Rotate the device coordinate system by β around the y-axis. The coordinate system formed by this rotation is referred to as an x 1 y 1 z 1 coordinate system. (2) the device coordinate system, when this is rotated by α in x 1 axis, a 2 + b 2 + c 2 = 1 (c> 0), and (4) - (6)
Using the equations, the rotation angles α and β are derived as follows.
【0046】[0046]
【数6】 以上で求められた回転角α,βを(5)式に代入すること
により、Rを一意に定めることができる。(Equation 6) R can be uniquely determined by substituting the rotation angles α and β obtained above into the equation (5).
【0047】最後に、これまでの手順で求められた3次
元ベクトルp、回転行列R、及び被写体面の向きを表す
3つのパラメータ(a,b,c)を用いて、画像座標
(x,y)を被投影面上に座標変換する。すなわち図4
において、画像面の1点に対応する3次元ベクトルPを
延長した時に被投影面と交差する点pを、座標変換後の
画像座標とする。装置座標系を基準とした、点pに対応
する3次元ベクトルをPとすると、Pは次式で表され
る。Finally, the image coordinates (x, y) are obtained by using the three-dimensional vector p, the rotation matrix R, and the three parameters (a, b, c) representing the direction of the object plane, which have been obtained by the above procedure. ) Is transformed into coordinates on the projection surface. That is, FIG.
, A point p that intersects with the projection plane when the three-dimensional vector P corresponding to one point on the image plane is extended is defined as image coordinates after coordinate conversion. Assuming that a three-dimensional vector corresponding to the point p with respect to the apparatus coordinate system is P, P is represented by the following equation.
【0048】[0048]
【数7】 ここでkは、撮像手段2の光学中心0から被投影面まで
の距離を表す拡大係数であるが、前述したように該被投
影面に向かって画像を投影することにより歪みを補正す
るので、kは作成される歪み補正画像の大きさを表して
いる。また、Pは点pを画像撮影時の装置座標系を基準
に表したベクトルであるが、Pを回転行列Rを用いて次
式のように座標変換することにより、画像処理装置1を
被写体面と正対させた時の3次元ベクトルP´に変換す
る。(Equation 7) Here, k is an enlargement coefficient representing a distance from the optical center 0 of the imaging means 2 to the projection surface. Since distortion is corrected by projecting an image toward the projection surface as described above, k represents the size of the distortion-corrected image to be created. Further, P is a vector representing the point p with reference to the apparatus coordinate system at the time of image capturing. By performing coordinate conversion of P using the rotation matrix R as in the following equation, the image processing apparatus 1 is moved to the object plane. Is converted to a three-dimensional vector P 'at the time of being directly opposed to.
【0049】[0049]
【数8】 したがって、(10)式の3次元ベクトルP´のx座標、y
座標を、点(x,y)の座標変換後の画像座標とするこ
とにより、補正変換後の画像座標(x,y)を得る。整
理すると次式のようになる。(Equation 8) Therefore, the x coordinate of the three-dimensional vector P ′ in equation (10), y
By using the coordinates as the image coordinates of the point (x, y) after the coordinate conversion, the image coordinates (x, y) after the correction conversion are obtained. The rearrangement is as follows.
【0050】[0050]
【数9】 以上の手順によって、(11)式を用いて画像面上の任意の
座標(x,y)を(X,Y)に座標変換することによ
り、歪み補正画像を作成することができる。歪み補正画
像の画像座標(X,Y)に対応する変換前の画像座標
(x,y)は一般に整数にならないが、双一次補間法や
B-スプライン補間法などの既存の方法を用いて補間する
ことにより、画像を作成すればよい。(Equation 9) According to the above procedure, the arbitrary coordinate (x, y) on the image plane is converted into (X, Y) by using the equation (11), whereby a distortion-corrected image can be created. The image coordinates (x, y) before transformation corresponding to the image coordinates (X, Y) of the distortion-corrected image are not generally integers.
An image may be created by performing interpolation using an existing method such as the B-spline interpolation method.
【0051】上記したような画像処理の方法について、
図8のフローチャートにより説明する。まず、撮像手段
2により被写体面を撮影すると同時に、撮影時における
被写体面の向きを表す3つのパラメータを求める(ステ
ップS1)。次に、得られた(a,b,c)を基に、先に
説明した手順で回転行列Rを算出する(ステップS2)。
以上の手順で求めた(a,b,c)及び回転行列Rを基
に、(11)式の座標変換を施すことにより歪み補正画像を
作成し(ステップS3)、処理を終了する。Regarding the image processing method as described above,
This will be described with reference to the flowchart of FIG. First, at the same time as imaging the subject surface by the imaging means 2, three parameters representing the orientation of the subject surface at the time of shooting are obtained (step S1). Next, based on the obtained (a, b, c), a rotation matrix R is calculated by the above-described procedure (step S2).
Based on (a, b, c) and the rotation matrix R obtained by the above-described procedure, the coordinate transformation of Expression (11) is performed to create a distortion-corrected image (step S3), and the process ends.
【0052】[発明の実施の形態2]以下に説明する発
明の実施の形態2〜4では、図9のように、画像処理装
置1を用いて、異なる場所から同一の被写体面の静止画
像を、画像の一部が重複するように、視点1から視点Kま
でのK箇所から撮影した場合の動作について説明する。
視点1で撮影した画像をIm 1、視点2で撮影した画像をIm
2などと呼ぶことにする。また、説明を簡単にするた
め、Im 1とIm 2、Im 2とIm 3のように、隣り合う順序で
撮影したIm jとIm j+1との間で重複領域を持つと仮定す
る。[Second Embodiment of the Invention] In the second to fourth embodiments of the invention described below, as shown in FIG. 9, the image processing apparatus 1 is used to form still images of the same subject plane from different places. The operation in the case where images are taken from K points from the viewpoint 1 to the viewpoint K such that a part of the image overlaps will be described.
Images taken at viewpoint 1 are Im 1, images taken at viewpoint 2 are Im
Let's call it 2 and so on. For the sake of simplicity, it is assumed that there is an overlap area between Imj and Imj + 1 photographed in adjacent order, such as Im1 and Im2, and Im2 and Im3.
【0053】図10は、この発明の実施の形態2に係る
画像処理装置1の構成図である。図10において、図2
と同一符号の部材は、発明の実施の形態1と同様の部材
であるので、詳細な説明は省略する。FIG. 10 is a configuration diagram of an image processing apparatus 1 according to Embodiment 2 of the present invention. In FIG. 10, FIG.
The members having the same reference numerals as those described above are the same members as in the first embodiment of the present invention, and thus detailed description is omitted.
【0054】画像処理装置1は、互いに重複する領域を
持つ画像間の特徴点及び対応点を抽出する対応検出手段
31と、対応検出手段31が出力した特徴点と対応点の
関係を基に、座標変換により互いに重複する領域を持つ
画像を貼り合わせる画像貼り合わせ手段32と、画像貼
り合わせ手段32が作成した貼り合わせ画像を記憶する
貼り合わせ画像記憶手段33と、平面計測手段10の出
力した前記被写体面の向きを基に、貼り合わせ画像記憶
手段33に蓄積された貼り合わせ画像の斜め撮影による
歪みを補正する合成画像歪み補正手段34とを有してい
る。The image processing apparatus 1 extracts correspondence points between images having mutually overlapping areas and corresponding points, and detects correspondence points between the feature points and corresponding points output by the correspondence detection section 31 based on the relation between the corresponding points and corresponding points. Image combining means 32 for combining images having overlapping regions by coordinate transformation, a combined image storage means 33 for storing a combined image created by the image combining means 32, and the output of the plane measuring means 10 A composite image distortion correcting unit that corrects distortion of the combined image stored in the combined image storage unit 33 due to oblique photographing based on the orientation of the subject surface.
【0055】対応検出手段31、画像貼り合わせ手段3
2、貼り合わせ画像記憶手段33、及び合成画像歪み補
正手段34の構成・動作を、以下説明する。対応検出手
段31は、互いに重複した領域を持つ2枚の画像におい
て同一の部分を撮影した箇所を検出するものである。こ
こでは、相関演算を用いた方法について説明する。対応
検出手段31は、図11のように、特徴点設定手段3
5、相関演算手段36より構成される。図10のフレー
ムメモリ7には、先に撮影した画像(基準画像)と、基
準画像と重複した領域を持つ参照画像が蓄積されてい
る。特徴点設定手段35は基準画像において、特徴点の
位置を決定し、特徴点を中心とするの濃淡パターンを抽
出し、相関窓を作成する。特徴点の位置は、角(corne
r)のように画像の濃度パターンが特徴的である箇所を
抽出することにより決定される。相関演算手段36は、
基準画像で作成した相関窓の濃淡パターンとほぼ一致す
る箇所を、参照画像において相関演算により検出し、こ
れを対応点と決定する。ここで、相関演算によるブロッ
クマッチングにより対応点を検出する一例について説明
する。図12のように、(2N+1)(2P+1)の相
関窓を用いたブロックマッチングで、基準画像における
i番目の特徴点(xi0,yi0)と、参照画像における点
(xi0+dxi,yi0+dyi)の相互相関値Siは、次
式により計算される。[0055] Correspondence detecting means 31, image combining means 3
2. The configuration and operation of the combined image storage unit 33 and the composite image distortion correction unit 34 will be described below. The correspondence detecting means 31 detects a portion where the same part is photographed in two images having overlapping areas. Here, a method using a correlation operation will be described. As shown in FIG. 11, the correspondence detecting means 31 includes the feature point setting means 3.
5. It is composed of a correlation operation means 36. The previously captured image (reference image) and a reference image having an area overlapping the reference image are stored in the frame memory 7 of FIG. The feature point setting means 35 determines a position of the feature point in the reference image, extracts a shading pattern centered on the feature point, and creates a correlation window. The position of the feature point is a corner (corne
It is determined by extracting a portion where the density pattern of the image is characteristic as in r). The correlation calculating means 36
A portion that substantially matches the shading pattern of the correlation window created in the reference image is detected by a correlation operation in the reference image, and is determined as a corresponding point. Here, an example in which a corresponding point is detected by block matching by a correlation operation will be described. As shown in FIG. 12, (2N + 1) ( 2P + 1) in block matching using the correlation window of, i-th feature point in the reference image and (x i0, y i0), the point in the reference image (x i0 + dx i, y The cross-correlation value S i of ( i 0 + dy i ) is calculated by the following equation.
【0056】[0056]
【数10】 各特徴点に対して、相互相関値Siの最大値が予め定め
られた閾値以上である点を求めることにより、参照画像
における対応点(xi0+dxi,yi0+dyi)が求めら
れる。Siの最大値が閾値以下ならば、対応点は存在し
ないとする。(Equation 10) For each feature point, by determining the point the maximum value of the cross-correlation value S i is the threshold value than the predetermined, the corresponding point in the reference image (x i0 + dx i, y i0 + dy i) is calculated. If the maximum value of S i is equal to or less than the threshold, it is determined that no corresponding point exists.
【0057】画像貼り合わせ手段32は、対応検出手段
31より出力された特徴点と対応点との関係を基に、基
準画像を参照画像に座標変換することにより画像を貼り
合わせる。ここでは、座標変換に射影変換を用いると仮
定して説明する。射影変換とは、図13のようにある被
写体平面を2枚撮影し、片方を基準画像、もう片方を参
照画像とした時に、図14のように基準画像に写った被
写体像を参照画像撮影時の見え方に変換することを指
す。これを数式で表すと、基準画像における特徴点(x
s,ys)と参照画像における対応点(xr,yr)の間
に、次式の関係が成立する。The image combining means 32 combines the images by performing coordinate conversion of the reference image into the reference image based on the relationship between the feature points and the corresponding points output from the correspondence detecting means 31. Here, description will be made assuming that projective transformation is used for coordinate transformation. The projective transformation means that, when two object planes are photographed as shown in FIG. 13 and one is used as a reference image and the other is used as a reference image, the object image shown in the reference image as shown in FIG. Refers to conversion to the appearance of When this is expressed by a mathematical expression, a feature point (x
s, the corresponding point in the y s) and the reference image (x r, between y r), the following relation is established.
【0058】[0058]
【数11】 (13)式においては8つの未知パラメータが存在するの
で、特徴点と対応点の組が4つ以上得られれば、最小自
乗法等の計算法により係数b1〜b8を求めることができ
る。以上の手順で、係数b1〜b8を計算することにより
貼り合わせた画像を、射影変換画像と呼ぶことにする。[Equation 11] In equation (13), since there are eight unknown parameters, if four or more pairs of feature points and corresponding points are obtained, the coefficients b 1 to b 8 can be obtained by a calculation method such as the least square method. In the above procedure, the image was bonded by calculating the coefficients b 1 ~b 8, it will be referred to as a projection transformation image.
【0059】以上では2視点から撮影した場合の射影変
換画像の作成法を説明したが、反復処理により射影変換
画像を順次作成して3枚以上の画像を貼り合わせること
ができる。以下、Im 1〜Im j-1を、Im jに対して射影変
換した画像を、PIm j( 1≦j≦K 、但しPIm 1 = Im 1と
する)と呼ぶことにする。PIm jにおいて、Im 1〜Imj-1
に写った被写体像はそれぞれ、Im j撮影時の見え方に変
換されて、Im jに貼り付けられている。PIm jを作成す
る反復処理を、以下に示す。In the above, the method of creating a projection conversion image when photographing from two viewpoints has been described. However, it is possible to sequentially create projection conversion images by iterative processing and paste three or more images together. Hereinafter, an image obtained by projecting and transforming Im 1 to Im j−1 with respect to Im j will be referred to as PIm j (1 ≦ j ≦ K, where PIm 1 = Im 1). In PIm j, Im1 to Imj-1
Are converted into the appearance at the time of photographing Imj, and are pasted to Imj. The iterative process for creating PIm j is described below.
【0060】j= 2, … , Kについて、以下の処理を繰り
返す。 PIm j-1を基準画像、Im jを参照画像とする。 基準画像において特徴点を抽出し、参照画像におい
て対応点を検出する。 で検出した4組以上の特徴点と対応点を用いて、(1
3)式の係数b1〜b8を求め、PIm j-1をIm jに対して射
影変換してPIm jを作成する。 jを1つ加算して、に戻る。The following processing is repeated for j = 2,..., K. Let PIm j-1 be the reference image and Im j be the reference image. Feature points are extracted from the reference image, and corresponding points are detected from the reference image. Using four or more pairs of feature points and corresponding points detected in
The coefficients b 1 to b 8 in the expression 3) are obtained, and PIm j−1 is projectively transformed to Imj to create PIm j. Increment j by 1, and return to.
【0061】以上の反復処理によって、最終的にはIm 1
〜Im K-1をIm Kに射影変換した画像PIm Kが得られる、
すなわちIm 1〜Im Kから1枚の貼り合わせ画像を作成す
ることができる。こうして作成された貼り合わせ画像
は、貼り合わせ画像記憶手段33に保存される。By the above iterative process, finally Im 1
An image PIm K obtained by projecting and converting Im K-1 to Im K is obtained.
That is, one bonded image can be created from Im1 to ImK. The combined image thus created is stored in the combined image storage unit 33.
【0062】合成画像歪み補正手段34は、前記画像貼
り合わせ手段32が作成した貼り合わせ画像PIm Kにお
ける歪みを補正するものである。画像貼り合わせ手段3
2が作成した貼り合わせ画像PIm Kは既に説明したよう
に、参照画像撮影時の見え方に変換して貼り合わされた
画像なので、参照画像において被写体像が歪んでいた場
合、当然貼り合わせ画像も歪みを含んでいる。そこで図
15において、参照画像(=Im K)を撮影した時に、前
記平面計測手段10の出力した被写体面の向きを表す3
つのパラメータ(a,b,c)を用いて、発明の実施の
形態1と同様に、(3)式〜(11)式の処理によって、貼り
合わせ画像PIm Kの歪みを補正する。The composite image distortion correction means 34 corrects the distortion in the composite image PImK created by the image composite means 32. Image bonding means 3
As described above, the composite image PIm K created by Step 2 is an image that has been converted to the appearance at the time of photographing the reference image and then laminated, so if the subject image is distorted in the reference image, the composite image is naturally distorted. Contains. Therefore, in FIG. 15, when the reference image (= Im K) is taken, the direction of the subject plane output by the plane
Using the three parameters (a, b, c), the distortion of the bonded image PImK is corrected by the processing of the equations (3) to (11), as in the first embodiment of the invention.
【0063】上記したような画像処理の方法について、
図16のフローチャートにより説明する。まず、撮像手
段2により被写体面を撮影し、この画像を基準画像とし
て記憶すると同時に、撮影時における被写体面の向きを
表す3つのパラメータ(a,b,c)を求める(ステッ
プS11)。続いて、基準画像と一部が重複するように視
点及び画像処理装置1の姿勢を変化させて撮像手段2に
より被写体面を撮影し、この画像を参照画像として記憶
すると同時に、撮影時における被写体面の向きを表す3
つのパラメータ(a,b,c)を求める(ステップS1
2)。基準画像において特徴点を抽出すると共に、参照
画像において該特徴点と同じ箇所を示す対応点を検出す
る(ステップS13)。こうして得られた特徴点と対応点
の関係を基に、先に説明した方法で基準画像を参照画像
に対して座標変換した画像を作成する(ステップS1
4)。その後、さらに画像を撮影して合成する画像を増
やす場合には(ステップS15)、以上の処理で作成した
貼り合わせ画像を基準画像に置き換えて(ステップS1
6)、ステップS2からステップS14の動作を繰り返す。そ
うでない場合には、最後に作成した貼り合わせ画像を、
参照画像撮影時の被写体面のパラメータ(a,b,c)
を用いて、(11)式の座標変換を行うことにより貼り合わ
せ画像の歪みを補正して(ステップS17)、処理を終了
する。With respect to the above-described image processing method,
This will be described with reference to the flowchart of FIG. First, a subject surface is photographed by the imaging means 2, and this image is stored as a reference image, and at the same time, three parameters (a, b, c) indicating the orientation of the subject surface at the time of photographing are obtained (step S11). Subsequently, the viewpoint and the attitude of the image processing apparatus 1 are changed so that a part thereof overlaps with the reference image, and an image of the object surface is photographed by the imaging means 2, and this image is stored as a reference image. 3 representing the direction of
(A, b, c) (Step S1)
2). A feature point is extracted from the reference image, and a corresponding point indicating the same place as the feature point is detected in the reference image (step S13). Based on the relationship between the feature points and the corresponding points thus obtained, an image is created by performing coordinate conversion of the reference image with respect to the reference image by the method described above (step S1).
Four). After that, if the number of images to be synthesized by taking more images is increased (step S15), the combined image created by the above processing is replaced with the reference image (step S1).
6) The operation from step S2 to step S14 is repeated. If not, copy the last created image
Object surface parameters (a, b, c) at the time of photographing the reference image
Is used to correct the distortion of the bonded image by performing the coordinate transformation of Expression (11) (step S17), and the processing is ended.
【0064】[発明の実施の形態3]図17は、この発
明の実施の形態3である画像処理装置1の構成図であ
る。図17において、図2と同一符号の部材は、発明の
実施の形態1と同様の部材であるので、詳細な説明は省
略する。[Third Embodiment of the Invention] FIG. 17 is a configuration diagram of an image processing apparatus 1 according to a third embodiment of the present invention. In FIG. 17, members having the same reference numerals as those in FIG. 2 are the same as those in Embodiment 1 of the present invention, and thus detailed description is omitted.
【0065】画像処理装置1は、平面計測手段10の出
力した被写体面の向きを基に、各々の画像の斜め撮影に
よる歪みを補正する画像歪み補正手段41を備えてい
る。The image processing apparatus 1 is provided with an image distortion correcting means 41 for correcting distortion of each image due to oblique photographing, based on the orientation of the object plane output from the plane measuring means 10.
【0066】画像処理装置1による処理の手順を中心
に、構成・動作を説明する。平面計測手段10は、各々
の画像を撮影する時の、画像処理装置1に対する被写体
面の向きを計測する。画像歪み補正手段41は、前記平
面計測手段10が出力した被写体面の向き(a,b,
c)を用いて、先に説明した手順で、各画像の斜め撮影
による歪みを補正する。対応検出手段31は、前記画像
歪み補正手段41で歪みを補正され、互いに重複した領
域を持つ2枚の画像において、同一の部分を撮影した箇
所を検出する。例えば、前述した相関演算を用いて対応
付けを行う場合、本実施の形態では斜め撮影による歪み
を補正した画像間の相関をとるので、さらに容易かつ精
度の高い対応付けが可能となる。以上で得られた歪みを
補正した基準画像、参照画像および特徴点と対応点の関
係により、(13)式の係数b1〜b8を求めて基準画像を参
照画像に貼り合わせる。The configuration and operation will be described focusing on the procedure of processing by the image processing apparatus 1. The plane measuring means 10 measures the direction of the subject plane with respect to the image processing apparatus 1 when each image is taken. The image distortion correction unit 41 outputs the direction (a, b,
Using c), the distortion due to the oblique shooting of each image is corrected in the procedure described above. The correspondence detecting unit 31 detects a portion where the same portion is photographed in two images having regions that are overlapped with each other and the distortion of which is corrected by the image distortion correcting unit 41. For example, in the case where the association is performed using the above-described correlation calculation, in the present embodiment, the correlation between the images corrected for the distortion due to the oblique imaging is obtained, so that the association can be performed more easily and with higher accuracy. Reference image obtained by correcting distortion by the above, the relationship between the reference image and the feature points and corresponding points are attached to each reference image in the reference image in search of the coefficient b 1 ~b 8 (13) below.
【0067】上記したような画像処理の方法について、
図18のフローチャートにより説明する。まず、撮像手
段2により被写体面を撮影し、この画像を基準画像とし
て記憶すると同時に、撮影時における被写体面の向きを
表す3つのパラメータ(a,b,c)を求め(ステップ
S21)、このパラメータ(a,b,c)を用いて、(3)〜
(11)式の処理手順で基準画像における歪みを補正し、基
準画像を歪みを補正したものに置き換える(ステップS2
2)。続いて、基準画像と一部が重複するように視点及
び画像処理装置1の姿勢を変化させて、撮像手段2によ
り被写体面を撮影し、この画像を参照画像として記憶す
ると同時に、撮影時における被写体面の向きを表す3つ
のパラメータ(a,b,c)を求め(ステップS23)、
このパラメータ(a,b,c)を用いて、(3)〜(11)式
の処理手順で参照画像における歪みを補正し、参照画像
を歪みを補正したものに置き換える(ステップS24)。
基準画像において特徴点を抽出すると共に、参照画像に
おいて該特徴点と同じ箇所を示す対応点を検出する(ス
テップS25)。こうして得られた特徴点と対応点の関係
を基に、先に説明した方法で基準画像を参照画像に対し
て座標変換した画像を作成する(ステップS26)。その
後、さらに画像を撮影して合成する画像を増やす場合に
は(ステップS27)、以上の処理で作成した貼り合わせ
画像を基準画像に置き換えて(ステップS28)、ステッ
プS23からステップS26の動作を繰り返す。そうでない場
合には、処理を終了する。Regarding the above-described image processing method,
This will be described with reference to the flowchart of FIG. First, the object plane is photographed by the imaging means 2 and this image is stored as a reference image, and at the same time, three parameters (a, b, c) representing the direction of the object plane at the time of photographing are obtained (step
S21), using these parameters (a, b, c),
The distortion in the reference image is corrected by the processing procedure of Expression (11), and the reference image is replaced with the corrected distortion (step S2).
2). Subsequently, the viewpoint and the attitude of the image processing apparatus 1 are changed so that a part of the image is overlapped with the reference image, the object surface is photographed by the image pickup means 2, and this image is stored as a reference image. The three parameters (a, b, c) representing the orientation of the surface are obtained (step S23),
Using the parameters (a, b, c), the distortion in the reference image is corrected by the processing procedures of equations (3) to (11), and the reference image is replaced with the corrected distortion (step S24).
A feature point is extracted from the reference image, and a corresponding point indicating the same location as the feature point is detected in the reference image (step S25). Based on the obtained relationship between the feature points and the corresponding points, an image is created by performing coordinate conversion of the reference image with respect to the reference image by the method described above (step S26). Thereafter, when the number of images to be captured and combined is increased (step S27), the combined image created by the above processing is replaced with the reference image (step S28), and the operations from step S23 to step S26 are repeated. . If not, the process ends.
【0068】なお本実施の形態においては、斜め撮影に
よる画像の歪みを補正した画像同士を貼り合わせるの
で、(13)式で表される射影変換の代わりに、次式のアフ
ィン変換を用いても貼り合わせ画像を得ることができ
る。In this embodiment, since the images obtained by correcting the image distortion due to the oblique photographing are pasted together, the affine transformation of the following equation can be used instead of the projective transformation represented by the equation (13). A laminated image can be obtained.
【0069】[0069]
【数12】 画像貼り合わせ手段32が、(13)式の射影変換または(1
4)式のアフィン変換に基づいた構成・動作に限定されな
いことは言うまでもない。(Equation 12) The image pasting means 32 performs the projective transformation of the expression (13) or (1).
It goes without saying that the present invention is not limited to the configuration and operation based on the affine transformation of the expression 4).
【0070】[発明の実施の形態4]この発明の実施の
形態4は、発明の実施の形態1〜3において、被写体面
までの距離を利用して、作成される歪み補正画像の大き
さを、各被写体像の大きさが概ね等しくなるように調整
することに関するものである。例えば、図19(a)のよ
うに基準画像と参照画像を、被写体面までの距離や撮像
手段2の光軸(z軸)の向きが異なった状態で撮影する
と、図19(b)のようにそれぞれの歪み補正画像におけ
る被写体像の大きさも異なる場合がある。そこで、平面
計測手段10の出力を利用して歪み補正画像の大きさを
調整するように、画像歪み補正手段41を構成する。そ
の一例を以下説明する。[Fourth Embodiment] In the fourth embodiment of the present invention, the size of the distortion-corrected image created by using the distance to the object plane in the first to third embodiments of the present invention is described. And adjusting the size of each subject image so as to be substantially equal. For example, as shown in FIG. 19A, when the reference image and the reference image are photographed in a state where the distance to the subject surface and the direction of the optical axis (z-axis) of the imaging unit 2 are different, as shown in FIG. In some cases, the size of the subject image in each distortion-corrected image may be different. Therefore, the image distortion correcting unit 41 is configured to adjust the size of the distortion corrected image using the output of the plane measuring unit 10. An example will be described below.
【0071】平面計測手段10は、発明の実施の形態1
と同様の構成をとり、被写体面の方程式を表すパラメー
タ(a,b,c,d)、及び装置座標系を基準にした各
点の3次元座標を出力する。画像歪み補正手段41は、
前記平面計測手段10が出力した(a,b,c,d)及
び各点の3次元座標より、(3)〜(11)式の手順で各画像
の歪みを補正すると共に、(11)式の座標変換に用いる最
適な拡大係数kを算出する。例えば、図19(a)におい
て、基準画像撮影時に平面計測手段10が出力した被写
体面のパラメータを(a,b,c,d)、また参照画像
撮影時に平面計測手段10が出力した被写体面のパラメ
ータを(a´,b´,c´,d´)とする。基準画像、
参照画像の歪み補正画像作成に用いる拡大係数をそれぞ
れk、k´(k>0,k´>0)とおくと、The plane measuring means 10 according to the first embodiment of the present invention
And outputs the parameters (a, b, c, d) representing the equations of the object plane and the three-dimensional coordinates of each point with reference to the apparatus coordinate system. Image distortion correction means 41
Based on the (a, b, c, d) output from the plane measuring means 10 and the three-dimensional coordinates of each point, the distortion of each image is corrected by the procedures of equations (3) to (11), and the equations (11) are used. Calculate the optimal expansion coefficient k used for the coordinate transformation of. For example, in FIG. 19A, the parameters of the object plane output by the plane measuring means 10 at the time of photographing the reference image are (a, b, c, d), and the parameters of the object plane output by the plane measuring means 10 at the time of photographing the reference image. Let the parameters be (a ', b', c ', d'). Reference image,
If the enlargement coefficients used to create the distortion-corrected image of the reference image are k and k ′ (k> 0, k ′> 0),
【0072】[0072]
【数13】 とすれば、図19(b)のように各々の被写体像の大きさ
が概ね等しい歪み補正画像が得られる。(Equation 13) Then, as shown in FIG. 19 (b), a distortion-corrected image in which the size of each subject image is substantially equal is obtained.
【0073】[発明の実施の形態5]この発明の実施の
形態5は、発明の実施の形態1〜4において、撮影時に
おける被写体面の向きを表す3つのパラメータ(a,
b,c)を用いて画像処理装置1を被写体面に正対させ
て撮影した画像に変換することにより、各々の画像の歪
みを補正するが、これは撮像手段2の光軸(z軸)を被
写体面の向きと一致させるような座標変換を施した結果
得られる画像を擬似的に生成することを意味する。しか
し、この座標変換は被写体面の法線ベクトルを回転軸と
する1軸回りの自由度を残している。すなわち、撮影時
の画像処理装置1の姿勢によっては、図20(a)のよう
に、画像面上で被写体像が傾いた歪み補正画像が作成さ
れる。本実施の形態では、発明の実施の形態1〜4に傾
き補正手段51を設置し、図20(b)のように傾きの殆
ど無い歪み補正画像を得ることを目的とする。[Fifth Embodiment] In the fifth embodiment of the present invention, in the first to fourth embodiments of the present invention, three parameters (a,
The distortion of each image is corrected by converting the image processing apparatus 1 into an image taken with the image processing apparatus 1 facing the subject plane using b) and c). Means to pseudo-generate an image obtained as a result of performing a coordinate transformation such that is made to match the direction of the object plane. However, this coordinate conversion leaves a degree of freedom around one axis with the normal vector of the subject plane as the rotation axis. That is, depending on the attitude of the image processing apparatus 1 at the time of shooting, a distortion-corrected image in which the subject image is inclined on the image plane is created as shown in FIG. In the present embodiment, it is an object to provide a tilt correction means 51 in the first to fourth embodiments of the present invention and obtain a distortion-corrected image having almost no tilt as shown in FIG.
【0074】傾き補正手段51は、第21図のように、
回転角設定手段52、回転中心設定手段53、及び回転
演算手段54より構成される。回転角設定手段52と回
転中心設定手段53はスイッチ等により構成され、例え
ば画像処理装置1の筐体上に表示手段8と隣り合う位置
に配置される。回転角設定手段52は画面上での回転角
θを、また回転中心設定手段53は画面上での回転中心
座標(x0,y0)を指定する。回転演算手段54は筐体
内部に内蔵された演算回路等により構成され、回転角θ
及び回転中心座標(x0,y0)を用いて、以下の座標変
換式により歪み補正画像の画面上での傾きを補正する。As shown in FIG. 21, the inclination correcting means 51
It comprises a rotation angle setting means 52, a rotation center setting means 53, and a rotation calculation means 54. The rotation angle setting means 52 and the rotation center setting means 53 are constituted by switches and the like, and are arranged, for example, on the housing of the image processing apparatus 1 at positions adjacent to the display means 8. The rotation angle setting means 52 specifies the rotation angle θ on the screen, and the rotation center setting means 53 specifies the rotation center coordinates (x 0 , y 0 ) on the screen. The rotation calculation means 54 is configured by a calculation circuit or the like built in the housing, and has a rotation angle θ.
And the rotation center coordinates (x 0 , y 0 ), the inclination of the distortion-corrected image on the screen is corrected by the following coordinate conversion formula.
【0075】[0075]
【数14】 (16)式の座標変換を、歪み補正画像に適用して傾きを補
正した画像を、表示手段8上で確認することができる。[Equation 14] An image whose inclination has been corrected by applying the coordinate transformation of the expression (16) to the distortion corrected image can be confirmed on the display unit 8.
【0076】なお、いうまでもなく、前記の各発明の実
施の形態の説明は、本発明の一例を説明したにすぎず、
この発明を前記の各発明の実施の形態通りに限定・縮小
すべきではない。例えば、平面計測手段10の構成は前
記実施の形態で説明した範囲に限定されず、波動(光、
電波、音波)を対象に照射し、対象からの反射波の伝播
時間や位相差を計測することにより対象までの距離を求
める、また被写体面の焦点ぼけの量から距離を求めるな
ど、別の構成でも構わない。また、対応検出手段31に
おいて相関法による濃度マッチングにより対応点を検出
すると説明したが、時空間微分法など別の手法で行って
も構わない。Needless to say, the description of each embodiment of the present invention is merely an example of the present invention.
The present invention should not be limited or reduced in accordance with the above-described embodiments of the present invention. For example, the configuration of the plane measuring unit 10 is not limited to the range described in the above-described embodiment, but may be a wave (light,
Other configurations such as irradiating the target with radio waves and sound waves and measuring the propagation time and phase difference of the reflected wave from the target to determine the distance to the target, and obtaining the distance from the amount of defocus on the subject surface But it doesn't matter. Further, it has been described that the correspondence detecting means 31 detects the corresponding point by the density matching by the correlation method. However, another method such as a spatio-temporal differentiation method may be used.
【0077】[0077]
【発明の効果】請求項1に記載の発明は、任意の被写体
面を任意の視点・姿勢で撮影した場合でも、平面を計測
することにより、簡便に画像の歪みを補正することがで
きる。According to the first aspect of the present invention, even when an arbitrary object plane is photographed at an arbitrary viewpoint and posture, the distortion of the image can be easily corrected by measuring the plane.
【0078】請求項2に記載の発明は、任意の被写体面
を任意の視点・姿勢で撮影した複数の画像を貼り合わせ
た画像を、計測した被写体面の向きを用いて座標変換す
ることにより、簡便に歪みのない合成画像を作成するこ
とができる。According to a second aspect of the present invention, an image obtained by bonding a plurality of images obtained by photographing an arbitrary object plane at an arbitrary viewpoint and posture is coordinate-converted by using the measured direction of the object plane. A composite image without distortion can be easily created.
【0079】請求項3に記載の発明は、任意の被写体面
を任意の視点・姿勢で撮影した場合でも、平面を計測す
ることにより、簡便に各画像の歪みを補正することがで
きる。また、歪みを補正した画像を用いて対応を検出す
るので、請求項2に記載の画像処理装置と比較して、さ
らに対応付けの精度が上がり、その結果、一層高精細な
合成画像を簡便に得ることができる。According to the third aspect of the present invention, even when an arbitrary object plane is photographed at an arbitrary viewpoint and posture, the distortion of each image can be easily corrected by measuring the plane. Further, since the correspondence is detected using the image in which the distortion has been corrected, the accuracy of the association is further improved as compared with the image processing apparatus according to claim 2, and as a result, a higher definition composite image can be easily formed. Obtainable.
【0080】請求項4に記載の発明は、請求項1〜3の
いずれかの一に記載の画像処理装置において、平面を計
測して得られた距離情報を用いて、被写体面を撮影した
各画像の歪みを補正することにより、各歪み補正画像に
おける被写体像の大きさをほぼ等しくすることができ
る。また、請求項3に記載の発明に本請求項に記載の発
明を適用すれば、被写体像の大きさがほぼ等しい歪み補
正画像を用いて対応を検出するので、さらに対応付けの
精度が上がり、その結果、一層高精細な合成画像を簡便
に得ることができる。According to a fourth aspect of the present invention, there is provided the image processing apparatus according to any one of the first to third aspects, wherein each image of the object surface is photographed using distance information obtained by measuring a plane. By correcting the image distortion, the size of the subject image in each distortion-corrected image can be made substantially equal. In addition, when the invention described in claim 3 is applied to the invention described in claim 3, the correspondence is detected using the distortion correction image in which the size of the subject image is substantially equal, so that the accuracy of the correspondence is further improved, As a result, a higher-definition composite image can be easily obtained.
【0081】請求項5に記載の発明は、請求項1〜4の
いずれかの一に記載の画像処理装置において、撮影した
各々の画像や貼り合わせた画像における被写体像の歪み
・傾きを補正することができる。また、請求項3に記載
の発明に本請求項に記載の発明を適用すれば、被写体像
の傾きがほぼ等しい歪み補正画像を用いて対応を検出す
るので、さらに対応付けの精度が上がり、その結果、一
層高精細な合成画像を簡便に得ることができる。According to a fifth aspect of the present invention, there is provided the image processing apparatus according to any one of the first to fourth aspects, wherein the distortion and inclination of the subject image in each of the photographed images and the combined images are corrected. be able to. In addition, if the invention described in claim 3 is applied to the invention described in claim 3, the correspondence is detected by using the distortion-corrected image in which the inclination of the subject image is substantially equal, so that the accuracy of the correspondence is further increased, and As a result, a higher-definition composite image can be easily obtained.
【0082】請求項6に記載の発明は、任意の被写体面
を任意の視点・姿勢で撮影した場合でも、平面を計測す
ることにより、簡便に画像の歪みを補正することができ
る。According to the sixth aspect of the present invention, even when an arbitrary object plane is photographed at an arbitrary viewpoint and posture, the distortion of the image can be easily corrected by measuring the plane.
【0083】請求項7に記載の発明は、任意の被写体面
を任意の視点・姿勢で撮影した複数の画像を貼り合わせ
た画像を、計測した被写体面の向きを用いて座標変換す
ることにより、簡便に歪みのない合成画像を作成するこ
とができる。According to a seventh aspect of the present invention, an image obtained by pasting a plurality of images obtained by photographing an arbitrary object plane at an arbitrary viewpoint and posture is coordinate-converted by using the measured direction of the object plane. A composite image without distortion can be easily created.
【0084】請求項8に記載の発明は、任意の被写体面
を任意の視点・姿勢で撮影した場合でも、平面を計測す
ることにより、簡便に各画像の歪みを補正することがで
きる。また、歪みを補正した画像を用いて対応を検出す
るので、請求項7に記載の発明と比較して、さらに対応
付けの精度が上がり、その結果、一層高精細な合成画像
を簡便に得ることができる。According to the eighth aspect of the invention, even when an arbitrary object plane is photographed at an arbitrary viewpoint and posture, the distortion of each image can be easily corrected by measuring the plane. Further, since the correspondence is detected using the image in which the distortion has been corrected, the accuracy of the association is further improved as compared with the invention according to claim 7, and as a result, a higher-definition composite image can be easily obtained. Can be.
【0085】請求項9に記載の発明は、請求項6〜8の
いずれかの一に記載の画像処理方法において、平面を計
測して得られた距離情報を用いて、被写体面を撮影した
各画像の歪みを補正することにより、各歪み補正画像に
おける被写体像の大きさをほぼ等しくすることができ
る。また、請求項8に記載の発明に本請求項に記載の発
明を適用すれば、被写体像の大きさがほぼ等しい歪み補
正画像を用いて対応を検出するので、さらに対応付けの
精度が上がり、その結果、一層高精細な合成画像を簡便
に得ることができる。According to a ninth aspect of the present invention, in the image processing method according to any one of the sixth to eighth aspects, each image of the object plane is photographed using distance information obtained by measuring a plane. By correcting the image distortion, the size of the subject image in each distortion-corrected image can be made substantially equal. Further, if the invention described in claim 8 is applied to the invention described in claim 8, the correspondence is detected using a distortion-corrected image in which the size of the subject image is substantially the same, so that the accuracy of the association is further improved, As a result, a higher-definition composite image can be easily obtained.
【0086】請求項10に記載の発明は、請求項6〜9
のいずれかの一に記載の画像処理方法において、撮影し
た各々の画像や貼り合わせた画像における被写体像の歪
み・傾きを補正することができる。また、請求項8に記
載の発明に本請求項に記載の発明を適用すれば、被写体
像の傾きがほぼ等しい歪み補正画像を用いて対応を検出
するので、さらに対応付けの精度が上がり、その結果、
一層高精細な合成画像を簡便に得ることができる。The invention according to claim 10 is the invention according to claims 6 to 9
In the image processing method according to any one of the above, it is possible to correct the distortion and inclination of the subject image in each of the captured images and the combined image. In addition, when the invention described in claim 8 is applied to the invention described in claim 8, the correspondence is detected using the distortion-corrected image in which the inclination of the subject image is substantially equal, so that the accuracy of the association is further improved, and result,
It is possible to easily obtain a higher-definition composite image.
【図1】被写体面を撮影した時に生じる画像の歪みの補
正を説明する概念図である。FIG. 1 is a conceptual diagram illustrating correction of image distortion generated when an image of a subject surface is captured.
【図2】この発明の実施の形態1である画像処理装置の
構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of the image processing apparatus according to the first embodiment of the present invention;
【図3】前記画像処理装置の平面計測手段の構成を示す
ブロック図である。FIG. 3 is a block diagram illustrating a configuration of a plane measuring unit of the image processing apparatus.
【図4】前記画像処理装置の動作を説明する概念図であ
る。FIG. 4 is a conceptual diagram illustrating the operation of the image processing apparatus.
【図5】前記画像処理装置の動作を説明する概念図であ
る。FIG. 5 is a conceptual diagram illustrating an operation of the image processing apparatus.
【図6】前記画像処理装置の動作を説明する概念図であ
る。FIG. 6 is a conceptual diagram illustrating an operation of the image processing apparatus.
【図7】前記画像処理装置の動作を説明する概念図であ
る。FIG. 7 is a conceptual diagram illustrating the operation of the image processing apparatus.
【図8】前記画像処理装置の動作を説明するフローチャ
ートである。FIG. 8 is a flowchart illustrating an operation of the image processing apparatus.
【図9】画像処理装置を用いて、異なる場所から同一の
被写体面の静止画像を、画像の一部が重複するように、
視点1から視点KまでのK箇所から撮影する場合の概念図
である。FIG. 9 is a diagram illustrating a still image of the same subject surface from a different place using an image processing device, such that a part of the image is overlapped.
FIG. 8 is a conceptual diagram in a case where shooting is performed from K points from viewpoint 1 to viewpoint K.
【図10】この発明の実施の形態2に係る画像処理装置
の構成を説明するブロック図である。FIG. 10 is a block diagram illustrating a configuration of an image processing apparatus according to a second embodiment of the present invention.
【図11】前記画像処理装置の対応検出手段の構成を説
明するブロック図である。FIG. 11 is a block diagram illustrating a configuration of a correspondence detection unit of the image processing apparatus.
【図12】前記画像処理装置の動作を説明する概念図で
ある。FIG. 12 is a conceptual diagram illustrating the operation of the image processing apparatus.
【図13】前記画像処理装置の動作を説明する概念図で
ある。FIG. 13 is a conceptual diagram illustrating the operation of the image processing apparatus.
【図14】前記画像処理装置の動作を説明する概念図で
ある。FIG. 14 is a conceptual diagram illustrating an operation of the image processing apparatus.
【図15】前記画像処理装置の動作を説明する概念図で
ある。FIG. 15 is a conceptual diagram illustrating the operation of the image processing apparatus.
【図16】前記画像処理装置の動作を説明するフローチ
ャートである。FIG. 16 is a flowchart illustrating an operation of the image processing apparatus.
【図17】この発明の実施の形態3である画像処理装置
の構成を説明するブロック図である。FIG. 17 is a block diagram illustrating a configuration of an image processing apparatus according to a third embodiment of the present invention.
【図18】前記画像処理装置の動作を説明するフローチ
ャートである。FIG. 18 is a flowchart illustrating an operation of the image processing apparatus.
【図19】この発明の実施の形態4である画像処理装置
の動作を説明する概念図である。FIG. 19 is a conceptual diagram illustrating an operation of the image processing apparatus according to the fourth embodiment of the present invention.
【図20】この発明の実施の形態5である画像処理装置
の動作を説明する概念図である。FIG. 20 is a conceptual diagram illustrating an operation of the image processing apparatus according to the fifth embodiment of the present invention;
【図21】前記画像処理装置の動作を説明する概念図で
ある。FIG. 21 is a conceptual diagram illustrating the operation of the image processing apparatus.
1 画像処理装置 2 撮像手段 10 平面計測手段 11 画像歪み補正手段 31 対応検出手段 32 画像貼り合わせ手段 34 合成画像歪み補正手段 51 傾き補正手段 DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Imaging means 10 Plane measurement means 11 Image distortion correction means 31 Correspondence detection means 32 Image bonding means 34 Synthetic image distortion correction means 51 Tilt correction means
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/232 G06F 15/66 350A 5/91 H04N 5/91 J Fターム(参考) 5B057 BA02 CD12 CE10 5C021 YC01 YC02 YC03 5C022 AB00 AB28 AB51 AB68 AC69 5C023 AA10 AA31 AA37 AA38 DA04 5C053 FA27 KA03 KA25 LA01 LA06──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/232 G06F 15/66 350A 5/91 H04N 5/91 J F-term (Reference) 5B057 BA02 CD12 CE10 5C021 YC01 YC02 YC03 5C022 AB00 AB28 AB51 AB68 AC69 5C023 AA10 AA31 AA37 AA38 DA04 5C053 FA27 KA03 KA25 LA01 LA06
Claims (10)
る平面計測手段と、 この計測した被写体面の向きに基づいて前記撮像手段が
撮像した画像の斜め撮影による歪みを補正する画像歪み
補正手段と、を備えている画像処理装置。1. An image pickup means for picking up an image of an object surface, a plane measuring means for measuring the direction of the object surface based on the image pickup means, and an image picked up by the image pickup means based on the measured direction of the object surface. An image processing apparatus comprising: an image distortion correction unit configured to correct distortion due to oblique imaging of an image.
うに複数の視点から被写体を撮像する撮像手段と、 この撮像手段を基準とした前記被写体面の向きを計測す
る平面計測手段と、 ある画像を基準画像とし、この基準画像と重複する部分
をもつ画像を参照画像とした場合に、前記基準画像にお
いて複数の特徴点を抽出するとともに、前記参照画像に
おいて前記特徴点と同一の個所を示す対応点を検出する
対応検出手段と、 この対応検出手段が検出した前記特徴点と前記対応点と
の関係に基づいて、前記基準画像を前記参照画像上に座
標変換することにより画像を貼り合せる画像貼り合わせ
手段と、 前記平面計測手段が計測した被写体面の向きに基づいて
前記画像貼り合わせ手段が貼り合わせた画像の斜め撮影
による歪みを補正する合成画像歪み補正手段と、を備え
ている画像処理装置。2. An image pickup means for picking up an image of a subject from a plurality of viewpoints so that a part of the image is overlapped with a previously picked-up image, and a plane measuring means for measuring the direction of the object plane with reference to the image pickup means. When a certain image is used as a reference image and an image having a portion overlapping with the reference image is used as a reference image, a plurality of feature points are extracted in the reference image, and the same location as the feature point is used in the reference image. A correspondence detecting means for detecting a corresponding point indicating the following, and pasting an image by performing coordinate transformation of the reference image on the reference image based on a relationship between the feature point and the corresponding point detected by the correspondence detecting means. Image combining means for combining, and a composite image for correcting distortion caused by oblique photographing of the image combined by the image combining means based on the orientation of the subject surface measured by the plane measuring means. The image processing apparatus includes a distortion correcting unit.
うに複数の視点から被写体を撮像する撮像手段と、 この撮像手段を基準とした前記被写体面の向きを計測す
る平面計測手段と、 この計測した被写体面の向きに基づいて前記撮像手段が
撮像した画像の斜め撮影による歪みを補正する画像歪み
補正手段と、 この補正した複数の画像のうち、ある画像を基準画像と
し、この基準画像と重複する部分をもつ画像を参照画像
とした場合に、前記基準画像において複数の特徴点を抽
出するとともに、前記参照画像において前記特徴点と同
一の個所を示す対応点を検出する対応検出手段と、 この対応検出手段が検出した前記特徴点と前記対応点と
の関係に基づいて、前記基準画像を前記参照画像上に座
標変換することにより画像を貼り合せる画像貼り合わせ
手段と、を備えている画像処理装置。3. An image pickup means for picking up an object from a plurality of viewpoints so that a part of the image is overlapped with a previously picked up image, and a plane measuring means for measuring the direction of the object plane with reference to the image pickup means. Image distortion correction means for correcting distortion due to oblique photographing of the image captured by the imaging means based on the measured orientation of the object surface; and setting a certain image as a reference image among the plurality of corrected images, Correspondence detecting means for extracting a plurality of feature points in the reference image and detecting a corresponding point indicating the same point as the feature point in the reference image when an image having a portion overlapping with the image is used as the reference image. And an image pasting unit that transforms the reference image onto the reference image based on the relationship between the feature points and the corresponding points detected by the correspondence detection unit, and pastes the images together. Image processing apparatus comprising: means combined, the.
準とした前記被写体面の距離も計測するものであり、 前記画像歪み補正手段および合成画像歪み補正手段は、
前記距離に比例した拡大係数も用いて画像の斜め撮影に
よる歪みを補正するものである、請求項1〜3のいずれ
かの一に記載の画像処理装置。4. The plane measuring means also measures a distance of the object plane with respect to the imaging means. The image distortion correcting means and the composite image distortion correcting means
The image processing apparatus according to any one of claims 1 to 3, wherein the distortion caused by oblique photographing of the image is corrected using an enlargement coefficient proportional to the distance.
み補正手段により補正された画像の画面上での傾きを補
正する傾き補正手段を備えている請求項1〜4のいずれ
かの一に記載の画像処理装置。5. The image processing apparatus according to claim 1, further comprising a tilt correction unit configured to correct a tilt of an image corrected on the screen by the image distortion correction unit or the composite image distortion correction unit. Image processing device.
と、 前記撮像手段を基準とした前記被写体面の向きを計測す
る工程と、 この計測した被写体面の向きに基づいて前記撮像手段が
撮像した画像の斜め撮影による歪みを補正する工程と、
を含んでなる画像処理方法。6. A step of capturing an image of a subject surface by an image capturing means, a step of measuring an orientation of the subject surface with respect to the image capturing means, and an image captured by the image capturing means based on the measured orientation of the subject surface. Correcting the distortion due to oblique shooting of the image;
An image processing method comprising:
部が重複するように複数の視点から被写体を撮像する工
程と、 前記撮像手段を基準とした前記被写体面の向きを計測す
る工程と、 ある画像を基準画像とし、この基準画像と重複する部分
をもつ画像を参照画像とした場合に、前記基準画像にお
いて複数の特徴点を抽出するとともに、前記参照画像に
おいて前記特徴点と同一の個所を示す対応点を検出する
工程と、 この工程で検出した前記特徴点と前記対応点との関係に
基づいて、前記基準画像を前記参照画像上に座標変換す
ることにより画像を貼り合せる工程と、 前記計測工程で計測した被写体面の向きに基づいて前記
貼り合わせ工程で貼り合わせた画像の斜め撮影による歪
みを補正する工程と、を含んでなる画像処理方法。7. A step of imaging a subject from a plurality of viewpoints so that a part of the image is overlapped with an image previously captured by an imaging unit; and a step of measuring an orientation of the subject surface with respect to the imaging unit. When an image is used as a reference image and an image having a portion overlapping with the reference image is used as a reference image, a plurality of feature points are extracted from the reference image, and the same location as the feature point is used in the reference image. Detecting the corresponding point indicating, based on the relationship between the feature point and the corresponding point detected in this step, the step of bonding the image by performing coordinate transformation on the reference image on the reference image, Correcting the distortion caused by oblique photographing of the image bonded in the bonding step based on the orientation of the object plane measured in the measuring step.
部が重複するように複数の視点から被写体を撮像する工
程と、 前記撮像手段を基準とした前記被写体面の向きを計測す
る工程と、 この計測した被写体面の向きに基づいて前記撮像手段が
撮像した画像の斜め撮影による歪みを補正する工程と、 この補正した複数の画像のうち、ある画像を基準画像と
し、この基準画像と重複する部分をもつ画像を参照画像
とした場合に、前記基準画像において複数の特徴点を抽
出するとともに、前記参照画像において前記特徴点と同
一の個所を示す対応点を検出する工程と、 この工程で検出した前記特徴点と前記対応点との関係に
基づいて、前記基準画像を前記参照画像上に座標変換す
ることにより画像を貼り合せる工程と、を含んでなる画
像処理方法。8. A step of capturing an object from a plurality of viewpoints so that a part of the image is overlapped with an image previously captured by an image capturing unit; and a step of measuring an orientation of the object surface with respect to the image capturing unit. Correcting the distortion caused by oblique imaging of the image captured by the imaging unit based on the measured orientation of the subject surface; and setting a certain image as a reference image among the corrected plurality of images and overlapping the reference image. A step of extracting a plurality of feature points in the reference image and detecting a corresponding point indicating the same place as the feature point in the reference image, in a case where an image having a portion to be used as a reference image, Bonding the images by performing coordinate transformation on the reference image on the reference image based on the relationship between the detected feature points and the corresponding points.
した前記被写体面の距離も計測するものであり、 前記補正工程は、前記距離に比例した拡大係数も用いて
画像の斜め撮影による歪みを補正するものである、請求
項6〜8のいずれかの一に記載の画像処理方法。9. The measuring step also measures a distance of the object plane with respect to the imaging unit, and the correcting step uses an enlargement coefficient proportional to the distance to obtain a distortion due to oblique photographing of an image. The image processing method according to any one of claims 6 to 8, wherein the image processing is corrected.
上での傾きを補正する工程を含んでなる請求項6〜9の
いずれかの一に記載の画像処理方法。10. The image processing method according to claim 6, further comprising a step of correcting a tilt of the image corrected in the correction step on a screen.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10918999A JP4324271B2 (en) | 1999-04-16 | 1999-04-16 | Image processing apparatus and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10918999A JP4324271B2 (en) | 1999-04-16 | 1999-04-16 | Image processing apparatus and method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2000307947A true JP2000307947A (en) | 2000-11-02 |
| JP4324271B2 JP4324271B2 (en) | 2009-09-02 |
Family
ID=14503904
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP10918999A Expired - Fee Related JP4324271B2 (en) | 1999-04-16 | 1999-04-16 | Image processing apparatus and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4324271B2 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011053937A (en) * | 2009-09-02 | 2011-03-17 | Nec Corp | Image conversion parameter calculation device, image conversion parameter calculation method, and program |
| WO2011052064A1 (en) * | 2009-10-30 | 2011-05-05 | キヤノン株式会社 | Information processing device and method |
| WO2017110645A1 (en) * | 2015-12-22 | 2017-06-29 | シャープ株式会社 | Operation assistance device, operation assistance method, operation assistance program, and recording medium |
| WO2017203777A1 (en) * | 2016-05-23 | 2017-11-30 | ソニー株式会社 | Electronic device, control method for electronic device, and program |
| JP2019004305A (en) * | 2017-06-14 | 2019-01-10 | キヤノン株式会社 | Image processing device, image processing method, and program |
| CN111965630A (en) * | 2020-08-17 | 2020-11-20 | 南京先能光电科技有限公司 | Space positioning system |
| JP2023052595A (en) * | 2019-09-05 | 2023-04-11 | 富士フイルム株式会社 | Image processing apparatus, image processing system, image processing method, and program |
-
1999
- 1999-04-16 JP JP10918999A patent/JP4324271B2/en not_active Expired - Fee Related
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011053937A (en) * | 2009-09-02 | 2011-03-17 | Nec Corp | Image conversion parameter calculation device, image conversion parameter calculation method, and program |
| WO2011052064A1 (en) * | 2009-10-30 | 2011-05-05 | キヤノン株式会社 | Information processing device and method |
| US8928755B2 (en) | 2009-10-30 | 2015-01-06 | Canon Kabushiki Kaisha | Information processing apparatus and method |
| WO2017110645A1 (en) * | 2015-12-22 | 2017-06-29 | シャープ株式会社 | Operation assistance device, operation assistance method, operation assistance program, and recording medium |
| WO2017203777A1 (en) * | 2016-05-23 | 2017-11-30 | ソニー株式会社 | Electronic device, control method for electronic device, and program |
| JPWO2017203777A1 (en) * | 2016-05-23 | 2019-03-22 | ソニー株式会社 | Electronic device, control method of electronic device, and program |
| US10565462B2 (en) | 2016-05-23 | 2020-02-18 | Sony Corporation | Electronic apparatus, method of controlling electronic apparatus, and program |
| JP2019004305A (en) * | 2017-06-14 | 2019-01-10 | キヤノン株式会社 | Image processing device, image processing method, and program |
| JP2023052595A (en) * | 2019-09-05 | 2023-04-11 | 富士フイルム株式会社 | Image processing apparatus, image processing system, image processing method, and program |
| JP7482268B2 (en) | 2019-09-05 | 2024-05-13 | 富士フイルム株式会社 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM |
| CN111965630A (en) * | 2020-08-17 | 2020-11-20 | 南京先能光电科技有限公司 | Space positioning system |
| CN111965630B (en) * | 2020-08-17 | 2024-05-28 | 南京先能光电科技有限公司 | Space positioning system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4324271B2 (en) | 2009-09-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6097430A (en) | Image processing apparatus | |
| US6389179B1 (en) | Image combining apparatus using a combining algorithm selected based on an image sensing condition corresponding to each stored image | |
| JP4297111B2 (en) | Imaging apparatus, image processing method and program thereof | |
| JP4886716B2 (en) | Image processing apparatus and method, and program | |
| US20030169918A1 (en) | Stereoscopic image characteristics examination system | |
| US20040061774A1 (en) | Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array | |
| JP2001134751A (en) | Image processing method and apparatus, digital camera, image processing system, and recording medium storing image processing program | |
| JP2004032172A (en) | Compound-eye imaging device and device equipped with the same | |
| JP2000283720A (en) | Method and device for inputting three-dimensional data | |
| JP2002071309A (en) | 3D image detection device | |
| JP2000125190A (en) | Camera system and recording medium | |
| JPH11136575A (en) | Imaging apparatus and captured image synthesizing method | |
| JP2001177716A (en) | Image processing method and image processing device | |
| JP3493403B2 (en) | 3D measuring device | |
| JP4324271B2 (en) | Image processing apparatus and method | |
| JP4169464B2 (en) | Image processing method, image processing apparatus, and computer-readable recording medium | |
| JP2000134537A (en) | Image input device and method | |
| JP2009134357A (en) | Image processing apparatus, imaging apparatus, image processing program, and image processing method | |
| JP3282332B2 (en) | Image input system | |
| JP4221808B2 (en) | Three-dimensional data input method and apparatus | |
| JP2023172202A (en) | Image processing device, moving object, image processing method, and computer program | |
| JPH07174538A (en) | Image input camera | |
| JP2000244797A (en) | Image signal processing apparatus and method | |
| JP2000228748A (en) | Image input device | |
| JPH11281332A (en) | Imaging device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050620 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050622 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20050620 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050822 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060411 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060612 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060703 |
|
| A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20070323 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090608 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120612 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130612 Year of fee payment: 4 |
|
| LAPS | Cancellation because of no payment of annual fees |