JPH0926547A - Endoscopic image processing device - Google Patents
Endoscopic image processing deviceInfo
- Publication number
- JPH0926547A JPH0926547A JP7173618A JP17361895A JPH0926547A JP H0926547 A JPH0926547 A JP H0926547A JP 7173618 A JP7173618 A JP 7173618A JP 17361895 A JP17361895 A JP 17361895A JP H0926547 A JPH0926547 A JP H0926547A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target object
- distance
- estimating
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、同一の対象物体に
対して異なる位置から撮像された画像を用いて撮像手段
から対象物体までの距離を推定する内視鏡画像処理装置
に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an endoscopic image processing apparatus for estimating a distance from an image pickup means to a target object by using images of the same target object taken from different positions.
【0002】[0002]
【従来の技術】視野に重なりをもって配置された撮像手
段の、相対的な配置が既知の場合に、撮像された画像か
ら対象物の形状を推定する問題に対しては、いわゆるス
テレオ画像からの形状推定問題として種々の方法が提案
されている。2. Description of the Related Art The problem of estimating the shape of an object from a picked-up image when the relative arrangement of the image pickup means arranged so as to overlap the field of view is known, the so-called stereo image shape is used. Various methods have been proposed as estimation problems.
【0003】さらに近年では、動きからの3次元構造抽
出についていくつかの提案がなされている。これは複数
の画像から撮像手段の相対的な移動をも推定しようとす
る手法である。Furthermore, in recent years, several proposals have been made for extracting three-dimensional structures from motion. This is a method for trying to estimate the relative movement of the image pickup means from a plurality of images.
【0004】これらの手法はいずれも、複数の画像間で
対象物上の同一の点の各画像上における位置が関連付け
られることを原情報として用いる。Each of these methods uses, as the original information, that the position of the same point on the object is associated with each other between a plurality of images.
【0005】対象物上の同一の点の各画像上における位
置の検出に対しても種々の方法が提案されている。人工
的な対象物の場合、角、輪郭成分が明瞭であることが多
いため、線分抽出等の構造抽出による手法は有効である
が、一般的な自然画像に対しては適用が難しい。時系列
画像に対してしばしば用いられる濃度勾配法は、画像間
での対象物の見かけの移動が非常に小さく、画像品質が
良い場合には良好な結果が得られるが、撮像条件の制約
が大きい。Various methods have been proposed for detecting the position of the same point on an object on each image. In the case of artificial objects, since the corners and contour components are often clear, the method of structure extraction such as line segment extraction is effective, but it is difficult to apply to general natural images. The density gradient method, which is often used for time-series images, gives very good results when the apparent quality of the object between images is very small and the image quality is good, but the constraints of the imaging conditions are large. .
【0006】そこで一般的には、画像上の着目点とその
周辺領域を参照領域として抽出し、探索対象物の画像上
から抽出した領域との間で相関演算を行い最大相関値を
与える位置を対応点とする手法(ブロックマッチング)
がしばしば用いられる。このブロックマッチング法は画
像上のテクスチャが明瞭であれば比較的安定した結果を
もたらすが、テクスチャが不明瞭な場合には誤った対応
点を検出してしまうことがある。Therefore, in general, the point of interest on the image and its surrounding area are extracted as a reference area, and a correlation operation is performed between the area extracted from the image of the object to be searched to find the position giving the maximum correlation value. Corresponding point method (block matching)
Is often used. This block matching method gives a relatively stable result if the texture on the image is clear, but may detect an incorrect corresponding point if the texture is unclear.
【0007】さらに本質的な欠点として、対象物が立体
でありブロック内に例えば背景との境界を含む場合には
検出結果は信頼できない。また、対象物面が撮像手段に
対して傾いている、あるいは距離の差がある等、複数の
撮像手段の画像間での像の変形が大きい、または像の大
きさの差異が大きい場合も信頼できない。As a further essential drawback, the detection result is unreliable when the object is a solid and the block includes a boundary with the background, for example. Further, it is also reliable when the deformation of the image between the images of the plurality of image pickup devices is large or the difference in the image size is large, such as when the object surface is tilted with respect to the image pickup device or there is a difference in distance. Can not.
【0008】立体形状の推定に関わる問題としてはオク
ルージョン及び推定結果の整合の問題が挙げられる。特
に、ステレオからの推定においては対象物の背後に隠
れ、撮像されない部分、あるいは一方の撮像手段のみに
撮像される部分とが存在し、これらの領域の扱いが問題
となる。The problems associated with the estimation of the three-dimensional shape include the problem of occlusion and the matching of estimation results. In particular, in stereo estimation, there is a part that is hidden behind the object and is not imaged, or a part that is imaged by only one of the image pickup means, and handling of these regions becomes a problem.
【0009】撮像手段の数が多ければ必然的に撮像され
る領域は多くなり、隠される領域は少なくなるが、特に
撮像手段の位置が既知でない場合、あるいは推定が正確
でない場合には、これらの画像間の整合は容易でない。A large number of image pickup means inevitably results in a large area to be imaged and a small hidden area. However, especially when the position of the image pickup means is not known or the estimation is not accurate, these areas are hidden. Matching between images is not easy.
【0010】このように従来提案されてきた手法のほと
んどは、人工物を撮像した画像を対象物としているか、
または、自然画像を対象物とした場合に当然発生するこ
れらの問題に対し、いずれかの仮定をおくことにより、
影響を除外あるいは軽減した条件において考察されてお
り、実用上十分な能力をもっているとは言えない。As described above, most of the methods that have been proposed in the past do not use an image of an artificial object as an object,
Or, by making one of the assumptions for these problems that naturally occur when a natural image is the object,
It is considered under conditions where the influence is excluded or mitigated, and it cannot be said that it has practically sufficient ability.
【0011】例えば、従来提案されている手法の適用が
困難であり、かつ、機能が実現された場合に実用的な価
値の大きい画像の種類として、生体用内視鏡から得られ
る画像がある。For example, there is an image obtained from a biomedical endoscope as a type of image that is difficult to apply the method proposed hitherto and is of great practical value when the function is realized.
【0012】細長の挿入部を体腔内に挿入することによ
って、切開を必要とすることなく、体腔内の患部等を観
察したり、必要に応じ処置具を用いて治療処置のできる
内視鏡においては、先端部の大きさは機能上最小限に抑
える必要があるため、医師が観察、あるいは処置を行う
ために必要な部材以外は組み込むことができない。By inserting an elongated insertion portion into a body cavity, an endoscope can be used for observing an affected area in the body cavity without the need for incision and for medical treatment using a treatment tool if necessary. However, since the size of the tip must be minimized in terms of function, only a member necessary for the doctor to perform observation or treatment can be incorporated.
【0013】経内視鏡的に対象物の形状を把握すること
に関して既にいくつかの提案がなされている。例えば観
察対象物に対しパターン光等を投影する方式(特開昭6
3−240831号公報)、先端部に複眼を持つ方式
(特開昭63−244011号公報)であるが、いずれ
も内視鏡先端部あるいは光源部に特殊な構造が要求され
るため、装置の大型化、複雑化を招き一般的に用いるこ
とが難しい。Several proposals have already been made for grasping the shape of a target object endoscopically. For example, a method of projecting pattern light or the like onto an object to be observed (Japanese Patent Laid-Open No. Sho 6-96
No. 3-240831) and a system having a compound eye at the tip (Japanese Patent Laid-Open No. 63-244011), both of which require a special structure at the tip or the light source of the endoscope, Generally, it is difficult to use because it becomes large and complicated.
【0014】同一出願人による特開昭63−24671
6号公報には内視鏡先端を手元操作により移動させて得
た複数の画像から対象物形状を推定する手法及び、操作
に伴う先端の移動量を計測する計測機構が開示されてい
る。この方法によれば現内視鏡の機能を損なうことな
く、絶対的な対象物形状の推定を行うことができる。Japanese Patent Application Laid-Open No. 63-24671 by the same applicant
No. 6 discloses a method of estimating the shape of an object from a plurality of images obtained by moving the tip of the endoscope by hand operation, and a measuring mechanism for measuring the amount of movement of the tip associated with the operation. According to this method, an absolute object shape can be estimated without impairing the function of the current endoscope.
【0015】また、同一出願人による特開平6−728
9号公報では、対象となる物体のそばに大きさが既知な
基準物を置いて、内視鏡先端を手元操作により移動させ
て得た複数の画像から対象物と基準物の相対的な形状を
推定する手法及び、対象物のそばに置いた基準物の大き
さから対象物の大きさを推定する手法が開示されてい
る。Further, Japanese Patent Laid-Open No. 6-728 by the same applicant
According to Japanese Patent Laid-Open No. 9, a reference object having a known size is placed near a target object, and a relative shape of the target object and the reference object is obtained from a plurality of images obtained by moving the tip of the endoscope by hand operation. And a method of estimating the size of the target object from the size of a reference object placed near the target object.
【0016】[0016]
【発明が解決しようとする課題】前述した特開昭63−
246716号公報の構成では、時系列的に得られた複
数の画像から対象物体の相対的な形状を推定すると共
に、この操作に伴う内視鏡先端の撮像手段の移動量を計
測しその計測値から絶対的な形状を推定することは可能
である。DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention
In the configuration of Japanese Laid-Open Patent Publication No. 246716, the relative shape of the target object is estimated from a plurality of images obtained in time series, and the movement amount of the image pickup means at the tip of the endoscope accompanying this operation is measured and the measured value is obtained. It is possible to estimate the absolute shape from
【0017】しかし、前記計測機構の与え得る精度は撮
像手段の分解能等を考え合わせると不十分ではないまで
も十分であるとは言い難い。However, it is difficult to say that the accuracy that the measuring mechanism can provide is sufficient, if not sufficient, considering the resolution of the image pickup means.
【0018】また、特開平6−7289号公報の構成で
は、時系列的に対象物体を撮像する場合に、対象物体と
共に形状の大きさが既知な基準物を同時に撮像すること
により、対象物体の絶対的な形状を求めるようになって
いる。Further, in the configuration of Japanese Patent Laid-Open No. 6-7289, when the target object is time-sequentially imaged, the reference object having a known shape size is simultaneously imaged together with the target object. It seeks an absolute shape.
【0019】しかし、生体用内視鏡を使って対象物体の
そばに基準物を置いて同時に撮像することは、内視鏡の
操作者にとって大きな負担になるという問題点がある。However, there is a problem that placing a reference object near a target object by using a living body endoscope and capturing an image at the same time imposes a heavy burden on the operator of the endoscope.
【0020】本発明は、これらの事情に鑑みてなされた
もので、同一の対象物体に対して異なる位置から撮像さ
れた画像を基に、撮像手段から対象物体までの絶対的な
距離を精度良く容易に推定することが可能な内視鏡画像
処理装置を提供することを目的としている。The present invention has been made in view of these circumstances, and based on images taken from different positions with respect to the same target object, the absolute distance from the image pickup means to the target object can be accurately measured. An object is to provide an endoscopic image processing device that can be easily estimated.
【0021】[0021]
【課題を解決するための手段】本発明による内視鏡画像
処理装置は、同一の対象物体に対して異なる位置より撮
像する撮像手段を有する内視鏡と、前記撮像手段により
撮像された複数の画像から、前記対象物体の相対的な形
状を推定する相対形状推定手段と、前記撮像手段から前
記対象物体上の適当な位置までの距離を推定する距離推
定手段と、前記相対形状推定手段により推定された対象
物体の相対形状と前記距離推定手段により推定された対
象物体までの距離とから、前記対象物体の絶対的な形状
を推定する絶対形状推定手段と、を備えたものであり、
この構成によって撮像手段から対象物体までの絶対的な
距離を精度良く推定する。An endoscope image processing apparatus according to the present invention includes an endoscope having an image pickup means for picking up images of the same target object from different positions, and a plurality of images picked up by the image pickup means. Relative shape estimation means for estimating the relative shape of the target object from the image, distance estimation means for estimating the distance from the imaging means to an appropriate position on the target object, and estimation by the relative shape estimation means From the relative shape of the target object and the distance to the target object estimated by the distance estimating means, an absolute shape estimating means for estimating an absolute shape of the target object,
With this configuration, the absolute distance from the image pickup means to the target object is accurately estimated.
【0022】[0022]
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。図1ないし図9は本発明の第1の
実施形態の構成に係り、図1は第1の実施形態における
電子内視鏡システムの全体構成図、図2は電子内視鏡装
置のブロック構成を示すブロック図、図3は画像処理装
置の構成を示すブロック図、図4はCPUで構成した画
像処理手段の機能構成を示すブロック図、図5はハード
ウェアで構成した画像処理手段の構成を示すブロック
図、図6は記録装置の構成を示すブロック図、図7は画
像処理装置の入力部の変形例を示すブロック図、図8は
相対形状推定手段の機能構成を示すブロック図、図9は
距離推定手段の機能構成を示すブロック図である。Embodiments of the present invention will be described below with reference to the drawings. 1 to 9 relate to a configuration of a first embodiment of the present invention, FIG. 1 is an overall configuration diagram of an electronic endoscope system in the first embodiment, and FIG. 2 is a block configuration of an electronic endoscope apparatus. FIG. 3 is a block diagram showing the configuration of the image processing apparatus, FIG. 4 is a block diagram showing the functional configuration of the image processing means configured by the CPU, and FIG. 5 is a configuration of the image processing means configured by the hardware. Block diagram, FIG. 6 is a block diagram showing the configuration of the recording device, FIG. 7 is a block diagram showing a modified example of the input unit of the image processing device, FIG. 8 is a block diagram showing the functional configuration of the relative shape estimating means, and FIG. 9 is It is a block diagram which shows the function structure of a distance estimation means.
【0023】第1の実施形態は、内視鏡システムに対し
て特別な装置を付加したり、装置の構造を変更すること
なく、対象物の絶対的な形状を推定することを可能にし
た構成例を示したものである。In the first embodiment, the absolute shape of an object can be estimated without adding a special device to the endoscope system or changing the structure of the device. This is an example.
【0024】図1に示すように、内視鏡システム1は、
撮像手段を備えた電子内視鏡装置2と、撮像された画像
に基づいて患部等の対象物の立体形状を推定する画像処
理を行う画像処理装置3と、画像を記録する記録装置4
と、画像処理された画像を表示するモニタ5と、を有し
て構成される。As shown in FIG. 1, the endoscope system 1 includes
An electronic endoscope apparatus 2 including an image pickup means, an image processing apparatus 3 that performs image processing that estimates a three-dimensional shape of an object such as a diseased part based on the captured image, and a recording apparatus 4 that records the image.
And a monitor 5 for displaying the image-processed image.
【0025】電子内視鏡装置2は、電子内視鏡6と、こ
の電子内視鏡6に照明光を供給する光源部7A(図2参
照)と撮像手段に対する信号処理を行う信号処理部7B
とを内蔵した観察装置7と、この観察装置7から出力さ
れる画像信号を表示する観察用モニタ8と、を有して構
成される。The electronic endoscope apparatus 2 includes an electronic endoscope 6, a light source section 7A for supplying illumination light to the electronic endoscope 6 (see FIG. 2), and a signal processing section 7B for performing signal processing for the image pickup means.
And an observation monitor 8 for displaying an image signal output from the observation device 7.
【0026】前記電子内視鏡6は、生体9内に挿入され
る細長の挿入部11と、この挿入部11の後端に形成さ
れた操作部12と、この操作部12から延出されたユニ
バーサルケーブル13とから構成され、このユニバーサ
ルケーブル13の先端に設けたコネクタ14を観察装置
7に接続することができる。The electronic endoscope 6 has an elongated insertion part 11 to be inserted into the living body 9, an operation part 12 formed at the rear end of the insertion part 11, and an extension from the operation part 12. The universal cable 13 and the connector 14 provided at the tip of the universal cable 13 can be connected to the observation device 7.
【0027】前記挿入部11内にはライトガイド15が
挿通され、コネクタ14を観察装置7に接続することに
より、図2に示すように光源部7Aから照明光が入射端
面に供給される。照明光はライトガイド15によって伝
送され、先端部16側の端面から前方に出射され、生体
9内の対象部位を照明する。この照明された対象部位は
先端部16に設けた対物レンズ17によってその結像位
置に配置されたCCD18に結像され、光電変換され
る。この対物レンズ17とCCD18とで撮像手段とし
ての撮像部19を形成する。A light guide 15 is inserted into the insertion portion 11 and the connector 14 is connected to the observation device 7, whereby illumination light is supplied from the light source portion 7A to the incident end face as shown in FIG. The illumination light is transmitted by the light guide 15 and is emitted forward from the end surface on the side of the tip portion 16 to illuminate the target site in the living body 9. The illuminated target portion is imaged by the objective lens 17 provided on the tip portion 16 on the CCD 18 arranged at the image forming position, and photoelectrically converted. The objective lens 17 and the CCD 18 form an image pickup section 19 as an image pickup means.
【0028】前記CCD18で光電変換された画像信号
は観察装置7内の信号処理部7Bにより、信号処理され
て画像信号が生成され、この画像信号は観察用モニタ8
に出力されると共に、画像処理装置3に出力される。The image signal photoelectrically converted by the CCD 18 is subjected to signal processing by the signal processing section 7B in the observing device 7 to generate an image signal.
And is output to the image processing device 3.
【0029】観察装置7における光源部7Aと信号処理
部7Bの構成を図2に示す。The structures of the light source section 7A and the signal processing section 7B in the observation apparatus 7 are shown in FIG.
【0030】光源部7Aは、紫外光から赤外光に至る広
帯域の光を発光するランプ21を備えている。このラン
プ21としては、一般的なキセノンランプやストロボラ
ンプ等を用いることができる。前記キセノンランプやス
トロボランプは、可視光のみならず紫外光及び赤外光を
大量に発光する。このランプ21は、電源22によって
電力が供給されるようになっている。前記ランプ21の
前方には、モータ23によって回転駆動される回転フィ
ルタ28が配設されている。この回転フィルタ28に
は、通常観察用の赤(R),緑(G),青(B)の各波
長領域の光を透過するフィルタが周方向に沿って配列さ
れている。また前記モータ23は、モータドライバ25
によって回転が制御されて駆動されるようになってい
る。The light source section 7A is provided with a lamp 21 which emits light in a wide band from ultraviolet light to infrared light. As the lamp 21, a general xenon lamp, a strobe lamp, or the like can be used. The xenon lamp and the strobe lamp emit a large amount of ultraviolet light and infrared light as well as visible light. Electric power is supplied to the lamp 21 from a power source 22. A rotary filter 28, which is rotationally driven by a motor 23, is arranged in front of the lamp 21. Filters that transmit light in the respective wavelength regions of red (R), green (G), and blue (B) for normal observation are arranged in the rotary filter 28 along the circumferential direction. Further, the motor 23 is a motor driver 25.
The rotation is controlled and driven by.
【0031】前記回転フィルタ28を透過し、R,G,
Bの各波長領域の光に時系列的に分離された光は、更に
ライトガイド15の入射端に入射され、このライトガイ
ド15を介して先端部16側の出射端面に導かれ、この
出射端面から前方に出射されて、観察部位等を照明する
ようになっている。After passing through the rotary filter 28, R, G,
The light that has been time-sequentially separated into the light in each wavelength region of B is further incident on the incident end of the light guide 15, is guided to the emitting end face on the side of the tip portion 16 via the light guide 15, and the emitting end face is Is emitted to the front to illuminate an observation site or the like.
【0032】この照明光による観察部位等の被検体(被
写体)からの戻り光は、対物レンズ17によって、CC
D18上に結像され、光電変換されるようになってい
る。このCCD18には、信号線26を介して、信号処
理部7B内のドライバ31からの駆動パルスが印加さ
れ、この駆動パルスによって光電変換された被検体の画
像に対応した電気信号(画像信号)の読出し、転送が行
われるようになっている。このCCD18から読み出さ
れた画像信号は、信号線27を介して、電子内視鏡6内
又は観察装置7内に設けられたプリアンプ32に入力さ
れるようになっている。The return light from the subject (subject) such as the observation site due to the illumination light is transmitted by the objective lens 17 to the CC
An image is formed on D18 and photoelectrically converted. A drive pulse from the driver 31 in the signal processing unit 7B is applied to the CCD 18 via the signal line 26, and an electric signal (image signal) corresponding to the image of the subject photoelectrically converted by the drive pulse is applied. Read and transfer are performed. The image signal read from the CCD 18 is input to the preamplifier 32 provided in the electronic endoscope 6 or the observation device 7 via the signal line 27.
【0033】プリアンプ32で増幅された画像信号は、
プロセス回路33に入力され、γ補正及びホワイトバラ
ンス等の信号処理を施され、A/Dコンバータ34によ
って、デジタル信号に変換されるようになっている。こ
のデジタルの画像信号は、セレクト回路35によって、
例えば赤(R),緑(G),青(B)の各色に対応する
3つのメモリ(1)36a,メモリ(2)36b,メモ
リ(3)36cに選択的に記憶されるようになってい
る。前記メモリ(1)36a,メモリ(2)36b,メ
モリ(3)36cに記憶されたR,G,B色信号は、同
時に読み出され、D/Aコンバータ37によって、アナ
ログ信号に変換され、入出力インタフェース38を介し
てR,G,B色信号として観察用モニタ8に出力され、
この観察用モニタ8によって、観察部位がカラー表示さ
れるようになっている。The image signal amplified by the preamplifier 32 is
The signal is input to the process circuit 33, subjected to signal processing such as γ correction and white balance, and converted into a digital signal by the A / D converter 34. This digital image signal is output by the select circuit 35.
For example, it is selectively stored in three memories (1) 36a, memory (2) 36b, and memory (3) 36c corresponding to each color of red (R), green (G), and blue (B). There is. The R, G, B color signals stored in the memory (1) 36a, the memory (2) 36b, and the memory (3) 36c are simultaneously read out, converted into an analog signal by the D / A converter 37, and input. It is output to the observation monitor 8 as R, G, B color signals via the output interface 38,
The observation monitor 8 is adapted to display the observation site in color.
【0034】また、観察装置7内には、システム全体の
タイミングを作るタイミングジェネレータ39が設けら
れ、このタイミングジェネレータ39によって、モータ
ドライバ25,ドライバ31,セレクト回路35等の各
回路間の同期が取られている。A timing generator 39 is provided in the observing device 7 to generate the timing of the entire system, and the timing generator 39 synchronizes the circuits such as the motor driver 25, the driver 31, and the select circuit 35. Has been.
【0035】本実施形態では、メモリ(1)36a,メ
モリ(2)36b,メモリ(3)36cの出力端及びタ
イミングジェネレータ39の同期信号出力端は、画像処
理装置3と接続されている。また、画像処理装置3はモ
ニタ5と接続され、このモニタ5には画像処理装置3に
よる演算処理結果が表示されるようになっている。In this embodiment, the output ends of the memory (1) 36a, the memory (2) 36b, the memory (3) 36c and the synchronization signal output end of the timing generator 39 are connected to the image processing apparatus 3. Further, the image processing device 3 is connected to the monitor 5, and the result of the arithmetic processing by the image processing device 3 is displayed on the monitor 5.
【0036】図3に前記画像処理装置3の構成を示す。
画像処理装置3は、CPU40、情報入力装置41、R
AMで構成される主記憶装置42、画像入力インタフェ
ース43、表示インタフェース44、ROM45及び記
録装置インタフェース46を備え、これらはバスによっ
て互いに接続されている。FIG. 3 shows the configuration of the image processing apparatus 3.
The image processing device 3 includes a CPU 40, an information input device 41, and an R.
A main storage device 42 including an AM, an image input interface 43, a display interface 44, a ROM 45, and a recording device interface 46 are provided, and these are connected to each other by a bus.
【0037】前記情報入力装置41はキーボード等で構
成され、電子内視鏡6の種別等のデータを入力できるよ
うになっている。前記画像入力インタフェース43は、
メモリ(1)36a,メモリ(2)36b,メモリ
(3)36cに接続され、これらのメモリからの画像デ
ータの受信を行うようになっている。また、表示インタ
フェース44は、モニタ5に入力する画像データを送る
ようになっている。The information input device 41 is composed of a keyboard and the like, and can input data such as the type of the electronic endoscope 6. The image input interface 43 is
It is connected to the memory (1) 36a, the memory (2) 36b, and the memory (3) 36c, and receives image data from these memories. Further, the display interface 44 is adapted to send image data to be input to the monitor 5.
【0038】前記CPU40は、図4に示すように、R
OM45等に記憶されたプログラムにより動作する画像
処理手段47を備え、この画像処理手段47は、例えば
体腔内の対象物体上で電子内視鏡6の挿入部11の先端
を移動させることにより複数の画像を撮像し、記憶され
た画像より対象物体の相対的な形状を推定する相対形状
推定手段50と、電子内視鏡6の挿入部11の先端の適
当な位置の視点から対象物体上の位置までの距離を推定
する距離推定手段51と、前記相対形状推定手段で推定
された相対的な形状と前記距離推定手段で推定された距
離から対象物の絶対的な形状を推定する絶対形状推定手
段52と、を有して構成される。The CPU 40, as shown in FIG.
An image processing unit 47 that operates according to a program stored in the OM 45 or the like is provided, and the image processing unit 47 moves a tip of the insertion unit 11 of the electronic endoscope 6 on a target object in a body cavity, for example, to thereby perform a plurality of operations. Relative shape estimation means 50 that captures an image and estimates the relative shape of the target object from the stored image, and a position on the target object from the viewpoint of an appropriate position of the tip of the insertion portion 11 of the electronic endoscope 6. Distance estimating means 51 for estimating the distance to the absolute shape estimating means for estimating the absolute shape of the object from the relative shape estimated by the relative shape estimating means and the distance estimated by the distance estimating means. 52, and is comprised.
【0039】また、前記画像処理装置3の演算処理をハ
ードウェアで構成した場合のブロック構成を図5に示
す。FIG. 5 shows a block configuration when the arithmetic processing of the image processing apparatus 3 is configured by hardware.
【0040】メモリ(1)36a,(2)36b,
(3)36cに記憶されたR,G,Bの時系列画像デー
タは、一旦メモリ61に入力されて記憶される。メモリ
61に記憶した画像データを相対形状推定手段62と距
離推定手段63に入力し、各々の出力結果を絶対形状推
定手段64に入力することにより、対象物の絶対的な形
状を算出し、得られた3次元画像データまたは2次元画
像データをメモリ65に記憶する。Memory (1) 36a, (2) 36b,
(3) The R, G, and B time-series image data stored in 36c is once input and stored in the memory 61. By inputting the image data stored in the memory 61 to the relative shape estimating means 62 and the distance estimating means 63 and inputting the output results of each to the absolute shape estimating means 64, the absolute shape of the object is calculated and obtained. The obtained three-dimensional image data or two-dimensional image data is stored in the memory 65.
【0041】そして、メモリ65に記憶された3次元画
像データまたは2次元画像データを読み出し、D/Aコ
ンバータ66によってアナログ信号に変換し、入出力イ
ンタフェース67を介してモニタ5に出力する。これに
より、モニタ5に対象部位の3次元または2次元の画像
が表示されるようになっている。Then, the three-dimensional image data or the two-dimensional image data stored in the memory 65 is read, converted into an analog signal by the D / A converter 66, and output to the monitor 5 via the input / output interface 67. As a result, a three-dimensional or two-dimensional image of the target site is displayed on the monitor 5.
【0042】また、画像処理装置3には、相対形状推定
手段62、距離推定手段63、絶対形状推定手段64の
演算を制御するための演算処理用コントローラ68と、
メモリ61,65のデータの読み書きを制御するための
メモリコントローラ69と、メモリ61,65の画像デ
ータを選択的に出力するセレクタ70とが設けられてい
る。このセレクタ70により、メモリコントローラ69
の制御信号によってメモリ61,メモリ65の一方の出
力端が記録装置4と選択的に接続され、記録装置4とメ
モリ61またはメモリ65との間でデータの転送ができ
るようになっている。Further, the image processing device 3 is provided with an arithmetic processing controller 68 for controlling the arithmetic operations of the relative shape estimating means 62, the distance estimating means 63 and the absolute shape estimating means 64.
A memory controller 69 for controlling reading and writing of data in the memories 61 and 65, and a selector 70 for selectively outputting image data in the memories 61 and 65 are provided. With this selector 70, the memory controller 69
One of the output terminals of the memory 61 and the memory 65 is selectively connected to the recording device 4 by the control signal, and data can be transferred between the recording device 4 and the memory 61 or the memory 65.
【0043】本実施形態では、電子内視鏡6で得た対象
物部位の画像に対し、画像処理装置3で処理を行い、モ
ニタ5に処理結果を出力する。In this embodiment, the image processing device 3 processes the image of the object portion obtained by the electronic endoscope 6 and outputs the processing result to the monitor 5.
【0044】図6は画像処理装置3と接続され、画像処
理装置3で画像処理される画像データを記録したり、画
像処理装置3で処理され、モニタ5で表示される画像デ
ータ等を記録する記録装置4のより具体的な構成例を示
したものである。FIG. 6 is connected to the image processing device 3 and records image data which is image-processed by the image processing device 3 or records image data which is processed by the image processing device 3 and displayed on the monitor 5. 3 illustrates a more specific configuration example of the recording device 4.
【0045】この記録装置4への画像データの入力は、
電子内視鏡装置2のみに限らず、例えばアナログあるい
はデジタルの光磁気ディスク、VTR、光ディスク、動
画像メモリ等の入力装置により行うことも可能である。Input of image data to the recording device 4
Not only the electronic endoscope device 2, but also an input device such as an analog or digital magneto-optical disk, a VTR, an optical disk, a moving image memory can be used.
【0046】記録装置4に設けられる画像記録装置80
は、VTR或いはアナログ光磁気ディスク装置等のアナ
ログ方式の画像記録装置であり、その出力はA/Dコン
バータ81によりA/D変換された後、デジタル画像と
して画像処理装置3に入力される。また、画像処理装置
3による処理結果画像をD/Aコンバータ84を介して
入力し、画像記録装置80に記録することが可能であ
る。An image recording device 80 provided in the recording device 4.
Is an analog type image recording device such as a VTR or an analog magneto-optical disk device, the output of which is A / D converted by an A / D converter 81 and then input to the image processing device 3 as a digital image. Further, it is possible to input the processing result image by the image processing device 3 via the D / A converter 84 and record it in the image recording device 80.
【0047】動画像ファイル装置82は、半導体メモ
リ、ハードディスク、デジタル光磁気ディスク装置等で
構成されるデジタル方式の動画像ファイル装置であり、
その出力はデジタル画像として画像処理装置3に入力さ
れる。また、静止画像ファイル装置83は、動画像ファ
イル装置82と同様に半導体メモリ、ハードディスク、
デジタル光磁気ディスク装置等で構成されるデジタル方
式の静止画像ファイル装置であり、その出力はデジタル
画像として画像処理装置3に入力される。また、画像処
理装置3による処理結果画像を動画像ファイル装置82
及び静止画像ファイル装置83に記録することも可能で
ある。The moving image file device 82 is a digital type moving image file device including a semiconductor memory, a hard disk, a digital magneto-optical disk device, and the like.
The output is input to the image processing device 3 as a digital image. Further, the still image filing device 83 has a semiconductor memory, a hard disk,
It is a digital still image filing device composed of a digital magneto-optical disk device or the like, and its output is input to the image processing device 3 as a digital image. In addition, the processing result image by the image processing device 3 is displayed as a moving image file device 82.
It is also possible to record in the still image file device 83.
【0048】図2において、CCD18で光電変換され
た画像信号は観察装置7内の信号処理部7Bで信号処理
された画像信号となり、観察用モニタ8に出力されると
共に、画像処理装置3に出力される。In FIG. 2, the image signal photoelectrically converted by the CCD 18 becomes an image signal signal-processed by the signal processing unit 7B in the observation device 7, and is output to the observation monitor 8 and the image processing device 3. To be done.
【0049】この画像処理装置3に入力される2次元の
画像データは一旦記録装置4に送られ、画像信号が記録
される。また、記録された画像信号は画像処理装置3に
再び送られ、被写体の3次元形状の推定の処理が行わ
れ、記録装置4及びモニタ5に送り出され、それぞれ推
定された3次元形状の記録及び表示が行われる。The two-dimensional image data input to the image processing device 3 is once sent to the recording device 4 and the image signal is recorded. Further, the recorded image signal is sent again to the image processing device 3, where the process of estimating the three-dimensional shape of the subject is performed, and is sent to the recording device 4 and the monitor 5, where the estimated three-dimensional shape is recorded and recorded. The display is done.
【0050】また、前記画像処理装置3は、図7に示す
ように、画像入力インターフェース43の前段にA/D
変換器90a,90b,90cを設けるようにしても良
い。これにより、外部装置からのR,G,Bのアナログ
信号、例えば観察装置7の入出力インターフェース38
からのアナログ信号R,G,BをA/D変換器90a,
90b,90cに入力し、A/D変換器90a,90
b,90cで得られたデジタル信号をRAM42に記録
することで、デジタルのR,G,Bの画像データを得る
ことが可能である。Further, as shown in FIG. 7, the image processing apparatus 3 has an A / D in front of the image input interface 43.
The converters 90a, 90b, 90c may be provided. Thereby, R, G, B analog signals from an external device, for example, the input / output interface 38 of the observation device 7
Analog signals R, G, B from the A / D converter 90a,
90b, 90c, and A / D converters 90a, 90
By recording the digital signals obtained in steps b and 90c in the RAM 42, it is possible to obtain digital R, G, B image data.
【0051】前記相対形状推定手段50は、図8に示す
ように、撮像手段により同一の対象物体を複数の位置か
ら撮像した画像の同一の点の位置を検出する位置検出手
段101と、前記位置検出手段101で検出された同一
の点の位置から撮像手段の相対的な動きを推定する動き
推定手段102と、前記位置検出手段101で検出され
た同一の点の位置と前記動き推定手段102で検出され
た撮像手段の動きとから対象物の相対的な形状を推定す
る形状推定手段103と、を有して構成される。The relative shape estimating means 50, as shown in FIG. 8, is a position detecting means 101 for detecting the position of the same point in an image obtained by picking up the same target object from a plurality of positions by the image pickup means, and the position detecting means 101. The motion estimating means 102 estimates the relative movement of the image pickup means from the position of the same point detected by the detecting means 101, and the position of the same point detected by the position detecting means 101 and the motion estimating means 102. A shape estimation unit 103 that estimates the relative shape of the target object based on the detected movement of the imaging unit.
【0052】前記距離推定手段51は、図9に示すよう
に、前記位置検出手段101で検出された各画像の同一
の点においてその点を含み適当な領域内の周波数特性を
推定する周波数特性推定手段104と、各画像の周波数
特性が最も高周波領域まで広がっている画像を検出する
画像検出手段105と、画像検出手段105で検出され
た画像の撮像した位置で最も焦点が合ったと判断し、撮
像手段の視点から対象物体上の一点までの距離を撮像手
段の焦点距離と同一にすることにより絶対的な一つの距
離を推定する絶対距離推定手段106と、を有して構成
される。As shown in FIG. 9, the distance estimating means 51 estimates the frequency characteristic in the proper region including the point at the same point of each image detected by the position detecting means 101. The means 104, the image detecting means 105 for detecting an image in which the frequency characteristic of each image spreads to the highest frequency region, and the image detection position of the image detected by the image detecting means 105 are determined to be most focused, Absolute distance estimating means 106 for estimating an absolute distance by making the distance from the viewpoint of the means to a point on the target object the same as the focal length of the imaging means.
【0053】前記絶対形状推定手段52は、相対形状推
定手段50の出力結果である対象物体の相対的な形状と
距離推定手段51の出力結果である撮像手段から対象物
体上の一点までの絶対的な距離とに基づき、対象物体の
絶対的な形状を推定する機能を有している。The absolute shape estimating means 52 outputs the relative shape of the target object as the output result of the relative shape estimating means 50 and the output result of the distance estimating means 51 as the absolute shape from the image pickup means to a point on the target object. It has a function of estimating the absolute shape of the target object based on the distance.
【0054】次に、図10ないし図17を参照して第1
の実施形態の画像処理装置における動作を説明する。図
10は対象物の相対的な形状を推定する処理の全体的な
流れを示すフローチャート、図11は図10の各処理を
説明するための作用説明図、図12は時系列に得られた
画像データからシフトマップを作成する様子を示す説明
図、図13は中心射影の座標系を示す説明図、図14は
撮像手段の運動に関する回転ベクトル及び並進ベクトル
の関係を示す説明図、図15は撮像手段の運動に伴う対
象物体との距離の変化を示す説明図、図16は時系列に
得られた各画像の周波数特性を求める様子を示す説明
図、図17は画像データの周波数特性を示す特性図であ
る。Next, referring to FIGS. 10 to 17, the first
The operation of the image processing apparatus according to the embodiment will be described. FIG. 10 is a flowchart showing the overall flow of processing for estimating the relative shape of the target object, FIG. 11 is an operation explanatory view for explaining each processing of FIG. 10, and FIG. 12 is an image obtained in time series. FIG. 13 is an explanatory view showing how a shift map is created from data, FIG. 13 is an explanatory view showing a coordinate system of central projection, FIG. 14 is an explanatory view showing a relation between a rotation vector and a translation vector related to the motion of the image pickup means, and FIG. FIG. 16 is an explanatory diagram showing a change in distance to the target object due to movement of the means, FIG. 16 is an explanatory diagram showing how to obtain frequency characteristics of each image obtained in time series, and FIG. 17 is a characteristic showing frequency characteristics of image data. It is a figure.
【0055】電子内視鏡6によって得られる内視鏡画像
は観察装置7により画像信号として画像処理装置3に順
次送り出される。画像処理装置3では順次送られてくる
内視鏡画像の任意の期間の画像信号を記録装置4に送り
記録させる。そして、画像処理装置3は、記録装置4に
記録された内視鏡画像信号(2次元の画像データ)の複
数フレームの画像データを入力し、これらの複数フレー
ムの画像データから同一の点に対する位置を検出した
後、検出された位置の移動を表すシフトマップを算出す
る。The endoscopic images obtained by the electronic endoscope 6 are sequentially sent out as image signals by the observation device 7 to the image processing device 3. The image processing device 3 sends the image signals of the endoscopic images sequentially sent to the recording device 4 for recording in an arbitrary period. Then, the image processing device 3 inputs the image data of a plurality of frames of the endoscopic image signal (two-dimensional image data) recorded in the recording device 4, and detects the position of the same point from the image data of the plurality of frames. After detecting, the shift map representing the movement of the detected position is calculated.
【0056】その後、求められたシフトマップより撮像
手段の運動ベクトル(電子内視鏡6先端の運動ベクト
ル)を推定する。また、推定された撮像手段の運動ベク
トルと各画像間のシフトマップを用いて撮像手段と対象
物体との相対的な距離を算出し、対象物体の絶対的な形
状を推定する。Thereafter, the motion vector of the image pickup means (motion vector of the tip of the electronic endoscope 6) is estimated from the obtained shift map. Further, a relative distance between the image pickup device and the target object is calculated by using the estimated motion vector of the image pickup device and the shift map between the respective images, and the absolute shape of the target object is estimated.
【0057】前記求められた絶対形状の3次元データに
対して、任意の撮像手段の方向から見たときの2次元画
像または3次元画像で表示する(ワイヤーフレーム等)
画像データを作成する。画像処理装置3によって作成さ
れた3次元画像データまたは2次元画像データをモニタ
5に表示すると同時に記録装置4に記録する。The three-dimensional data of the obtained absolute shape is displayed as a two-dimensional image or a three-dimensional image when viewed from the direction of an arbitrary image pickup means (wire frame or the like).
Create image data. The three-dimensional image data or the two-dimensional image data created by the image processing device 3 is displayed on the monitor 5 and simultaneously recorded on the recording device 4.
【0058】まず、対象物の相対的な形状を推定する手
法について説明する。図10は相対形状を推定する処理
の全体的な流れを示したフローチャート、図11は図1
0の各処理を説明するための作用説明図である。以降に
各過程を順次説明する。First, a method for estimating the relative shape of the object will be described. FIG. 10 is a flowchart showing the overall flow of processing for estimating the relative shape, and FIG. 11 is shown in FIG.
It is an explanatory view of an operation for explaining each processing of 0. Hereinafter, each process will be sequentially described.
【0059】(1)シフトマップの算出 初めにステップS1として、電子内視鏡6により撮像手
段を移動しながら画像の撮像を行い、この時系列に撮像
された2次元の画像データを画像処理装置3に入力す
る。そしてステップS2として、複数の画像間の同一点
の検出を行い、シフトマップを作成する。(1) Calculation of shift map First, at step S1, an image is taken while moving the image pickup means by the electronic endoscope 6, and the two-dimensional image data picked up in time series is used as an image processing apparatus. Enter in 3. Then, in step S2, the same point between a plurality of images is detected and a shift map is created.
【0060】このとき、図12の(a)に示すように、
内視鏡先端を移動することにより同一の対象物体の時系
列画像を撮像する。これにより、P0 ないしPn で示す
撮像手段の移動軌跡に対応して時系列画像f0 〜fn が
得られる。At this time, as shown in FIG.
A time-series image of the same target object is captured by moving the tip of the endoscope. As a result, time-series images f0 to fn are obtained corresponding to the movement loci of the image pickup means indicated by P0 to Pn.
【0061】次いで、図12の(b)に示すように、撮
像された時系列画像の最初の画像f0 に対して複数の点
Pab(a=0,1,…,q、b=0,1,…,r)を設
定し、テンプレートマッチングの手法(参照文献:コン
ピュータ画像処理入門 総研出版(株) 田村秀行監
修:p.148 〜p.150 )により、残りの画像fi (i=
1,2,…,n)で設定された点Pabと同一の点の位置
を検出する。Then, as shown in FIG. 12B, a plurality of points Pab (a = 0, 1, ..., Q, b = 0, 1) are added to the first image f0 of the captured time series images. , ..., r) and the template matching method (reference: computer image processing introduction: Soken Publishing Co., Ltd. supervised by Hideyuki Tamura: p.148-p.150).
The position of the same point as the point Pab set in 1, 2, ..., N) is detected.
【0062】各画像の同一の点の位置が検出されること
で、画像f0 で設定された点Pabに対して残りの画像f
i (i=1,2,…,n)との位置のズレ、すなわち、
点Pabの各画像毎の移動量であるシフトマップSi (i
=1,2,…,n)が求められる。By detecting the position of the same point in each image, the remaining image f with respect to the point Pab set in the image f0 is detected.
The positional deviation from i (i = 1, 2, ..., N), that is,
The shift map Si (i) which is the amount of movement of the point Pab for each image
, 1, 2, ..., N) are obtained.
【0063】画像fi に対するシフトマップは、次のよ
うにx方向とy方向の移動量として表す。The shift map for the image fi is expressed as the amount of movement in the x and y directions as follows.
【0064】 なお、テンプレートマッチングの手法は、同一出願人に
よるUSP4,962,540に開示されているカラー
マッチング手法を適用してもよい。[0064] The template matching method may be the color matching method disclosed in USP 4,962,540 by the same applicant.
【0065】(2)運動の推定 次にステップS3として、前記求められたシフトマップ
より撮像手段の運動(内視鏡先端部16の動き)を推定
する。(2) Estimation of Movement Next, in step S3, the movement of the image pickup means (movement of the endoscope distal end portion 16) is estimated from the obtained shift map.
【0066】図13に中心射影の座標系を示す。画像原
点Oからの距離eだけ離れたところにZ軸に垂直に画像
面をおく。空間中の点(X,Y,Z)は、この点(X,
Y,Z)と原点Oとを結ぶ直線と画像面とが交わる点に
投影されるものとする。その交点の画像上の座標を
(x,y)とすると、幾何学的な関係からx,yは、FIG. 13 shows the coordinate system of the central projection. The image plane is placed perpendicular to the Z axis at a distance e from the image origin O. The point (X, Y, Z) in space is this point (X, Y, Z
It is assumed that the image is projected at a point where a straight line connecting (Y, Z) and the origin O intersects with the image plane. Assuming that the coordinates of the intersection on the image are (x, y), x, y are
【数1】 となる。[Equation 1] Becomes
【0067】撮像手段の運動により空間中の点X=
(X,Y,Z)がX′=(X′,Y′,Z′)に移動し
たとき、そのときの撮像手段の運動は、原点を通る視軸
回りの回転を表す回転ベクトルRと、並進ベクトルh=
(hx ,hy ,hz )を用いて次のように表される。By the movement of the image pickup means, a point X in space =
When (X, Y, Z) moves to X '= (X', Y ', Z'), the motion of the image pickup means at that time is a rotation vector R representing rotation about the visual axis passing through the origin, Translation vector h =
It is expressed as follows using (hx, hy, hz).
【0068】[0068]
【数2】 ここで、点X,X′を原点からの距離r,r′と単位方
向ベクトルm(Nベクトル)を用いて表すとそれぞれ、[Equation 2] Here, when the points X and X ′ are represented using the distances r and r ′ from the origin and the unit direction vector m (N vector), respectively,
【数3】 となる。ただし、(Equation 3) Becomes However,
【数4】 である。よって、式(4)を用いると式(2)は、(Equation 4) It is. Therefore, using equation (4), equation (2) becomes
【数5】 となる。(Equation 5) Becomes
【0069】ここで、図14(a)及び(b)に示すよ
うに、3本のベクトルm,Rm′,hは空間中の同一平
面上に存在するため、それらのスカラ3重積が0とな
る。Here, as shown in FIGS. 14A and 14B, since the three vectors m, Rm ', and h are on the same plane in space, their scalar triple product is 0. Becomes
【0070】[0070]
【数6】 前記テンプレートマッチングにより画像間の同一の点を
検出する場合、検出誤差によりシフトマップに誤差が含
まれる可能性がある。そこで、本例では最小二乗法を用
いて、画像内で設定される複数の点に対して、(Equation 6) When the same point between images is detected by the template matching, the shift map may include an error due to a detection error. Therefore, in this example, using the method of least squares, for a plurality of points set in the image,
【数7】 を満足するように回転ベクトルRと並進ベクトルhを求
める。ただし、推定される並進ベクトルhは単位ベクト
ルh′として推定される。(Equation 7) A rotation vector R and a translation vector h are obtained so as to satisfy However, the estimated translation vector h is estimated as a unit vector h '.
【0071】(3)撮像手段と対象物体までの相対的な
距離の算出 次にステップS4として、前記推定された撮像手段の運
動より、撮像手段から対象物体までの相対的な距離を算
出する。(3) Calculation of Relative Distance between Imaging Device and Target Object Next, in step S4, a relative distance from the imaging device to the target object is calculated from the estimated motion of the imaging device.
【0072】式(5)の両辺とm,Rm′との内積をと
ると、それぞれ、Taking the inner product of both sides of equation (5) and m and Rm ',
【数8】 となる。これを解けば各点までの距離が次のように得ら
れる。(Equation 8) Becomes If this is solved, the distance to each point can be obtained as follows.
【0073】[0073]
【数9】 ただし、並進ベクトルhが単位ベクトルh′として推定
されるため、r,r′は次式のように適当な倍率kで決
定される。[Equation 9] However, since the translation vector h is estimated as the unit vector h ', r and r'are determined by an appropriate magnification k as in the following equation.
【0074】[0074]
【数10】 r =kr …(10)## EQU10 ## r = kr (10)
【数11】 r′=kr′ …(11) したがって、画像f0 を撮像したときの撮像手段の位置
から、各画像fi (i=1,2,…,n)を撮像したと
きの撮像手段の位置までのそれぞれの相対的な運動(R
i ,hi (i=1,2,…,n))が推定される。[Mathematical formula-see original document] Therefore, from the position of the image pickup means when the image f0 is picked up, the image pickup means of each image fi (i = 1, 2, ..., N) is picked up. Each relative movement to the position (R
i, hi (i = 1, 2, ..., N)) are estimated.
【0075】この各画像fi (i=1,2,…,n)毎
に推定された相対的な運動とシフトマップとにより、各
画像毎の撮像手段の位置から対象物体までの相対的な距
離を推定する。この相対距離は、撮像手段から対象物体
を観察したときの相対的な形状に相当する。Based on the relative motion estimated for each image fi (i = 1, 2, ..., N) and the shift map, the relative distance from the position of the image pickup means to the target object for each image fi. To estimate. This relative distance corresponds to the relative shape when the target object is observed from the image pickup means.
【0076】次に、求められた対象物の相対的な形状か
ら絶対的な一つの値を得る手法について説明する。Next, a method of obtaining one absolute value from the obtained relative shape of the object will be described.
【0077】内視鏡先端を移動することにより同一の対
象物体の画像を時系列に撮像する場合、内視鏡先端と対
象物体までの距離に応じて焦点ズレを起こした画像が撮
像される。When the images of the same target object are picked up in time series by moving the tip of the endoscope, a defocused image is picked up according to the distance between the tip of the endoscope and the target object.
【0078】焦点ズレを起こした画像には、内視鏡の焦
点距離より内視鏡先端と対象物体との距離が遠くなった
とき生じる後ボケの画像と、近くなったときに生じる前
ボケの画像とがある。The defocused image includes the image of the rear blur generated when the distance between the tip of the endoscope and the target object is longer than the focal length of the endoscope, and the image of the front blur generated when the distance is close. There is an image.
【0079】このような前ボケ及び後ボケの画像が含ま
れる時系列画像には、内視鏡先端と対象物体までの距離
と電子内視鏡の焦点距離が一致したときに撮像された画
像が含まれる。In the time-series images including such front and rear blurred images, the images captured when the distance between the endoscope tip and the target object and the focal length of the electronic endoscope match each other are obtained. included.
【0080】そこで、時系列画像の中から最も焦点が合
った画像とその画像内で最も焦点の合った点を検出する
ことにより、電子内視鏡の焦点距離を、前記焦点が合っ
たものとして検出された画像が撮像された位置から対象
物体上の適当な位置までの距離とすることで、撮像手段
と対象物体との距離について絶対的な一つの値を推定で
きる。Then, by detecting the most in-focus image and the most in-focus point in the image from the time series images, the focal length of the electronic endoscope is determined to be the in-focus state. By setting the distance from the position where the detected image is captured to an appropriate position on the target object, it is possible to estimate an absolute value of the distance between the image capturing unit and the target object.
【0081】本実施形態では、前述した相対形状を推定
する処理において同一点が検出された後、画像f0 で設
定された複数の点Pab(a=0,1,…,q、b=0,
1,…,r)の中から適当な一点を選び、その点と各画
像毎の同一点に関して周波数特性を求める。In the present embodiment, after the same point is detected in the process of estimating the relative shape described above, a plurality of points Pab (a = 0, 1, ..., Q, b = 0, set in the image f0 are set.
1, ..., r), an appropriate point is selected, and the frequency characteristic is obtained for that point and the same point for each image.
【0082】撮像手段を移動させて時系列的な画像を撮
像した場合、撮像された各画像内の対象物体の大きさ
は、撮像手段の位置に応じて変化する。このため、一つ
の領域の大きさにより各画像の周波数特性を求めた場
合、ボケ以外に拡大縮小の要素も含まれるため周波数特
性を直接比較することができない。When a time-series image is picked up by moving the image pickup means, the size of the target object in each picked-up image changes according to the position of the image pickup means. For this reason, when the frequency characteristic of each image is obtained from the size of one region, the frequency characteristic cannot be directly compared because the scaling factor is included in addition to the blur.
【0083】そこで、前記相対形状を推定したときに各
画像毎に撮像手段の位置と対象物体の位置の相対的な距
離が推定されていることから、図15及び図16に示す
ように、それぞれの距離の比率に応じて領域の大きさを
決定し、各画像の周波数特性を比較する。Therefore, since the relative distance between the position of the image pickup means and the position of the target object is estimated for each image when the relative shape is estimated, as shown in FIGS. 15 and 16, respectively. The size of the area is determined according to the ratio of the distances, and the frequency characteristics of the images are compared.
【0084】図15に示すように、画像f0 で設定され
た点Pabと画像fi の同一点P′abとの撮像手段からの
距離の比率は、式(10),(11)より、As shown in FIG. 15, the ratio of the distance from the image pickup means between the point Pab set in the image f0 and the same point P'ab in the image fi is given by the equations (10) and (11).
【数12】 d0 :di =kr:kr′=r0 :ri …(12) となる。[Equation 12] d0: di = kr: kr '= r0: ri (12)
【0085】また、図16に示すように、画像f0 で設
定された点Pabを含む領域W0 をW0x,W0yとおくと、
画像fi の同一点を含む領域Wi は、Further, as shown in FIG. 16, if the area W0 including the point Pab set in the image f0 is set as W0x and W0y,
The area Wi containing the same point in the image fi is
【数13】 となる。(Equation 13) Becomes
【0086】そして、画像fi の同一点を含む領域Wi
が画像f0 で設定された点Pabを含む領域W0 と同じ大
きさになるように領域Wi を拡大または縮小する。この
とき、拡大または縮小による倍率Kは、Then, the area Wi including the same point of the image fi
Area W i is enlarged or reduced so that the area W i has the same size as the area W 0 including the point Pab set in the image f 0. At this time, the magnification K due to enlargement or reduction is
【数14】 である。[Equation 14] It is.
【0087】このように各画像毎に領域の大きさを設定
し、設定された領域を拡大または縮小することで得られ
た部分画像Ipiに対してフーリエ変換を行い、各部分画
像の周波数特性を求める。In this way, the size of the area is set for each image, the Fourier transform is performed on the partial image Ipi obtained by enlarging or reducing the set area, and the frequency characteristic of each partial image is calculated. Ask.
【0088】ここで、部分画像Ipiの周波数特性が最も
広がっている画像を検出するには、図17に示すよう
に、それぞれの周波数特性の高周波部分において適当な
領域λ0 ,λ1 を設定し、このλ0 とλ1 で囲まれる周
波数領域のパワーの平均Pavrを、Here, in order to detect an image in which the frequency characteristic of the partial image Ipi is most wide, as shown in FIG. 17, appropriate regions λ0 and λ1 are set in the high frequency portion of each frequency characteristic, and The average power Pavr in the frequency domain surrounded by λ0 and λ1 is
【数15】 λ0 とλ1 で囲まれる周波数領域のパワーの合計Psum
を、(Equation 15) The total power Psum in the frequency domain enclosed by λ0 and λ1
To
【数16】 とし、このPavr あるいはPsum が最大となるような部
分画像Ipiを求める。(Equation 16) Then, the partial image Ipi that maximizes this Pavr or Psum is obtained.
【0089】これにより、時系列的に撮像された画像f
0 ないしfn のうち、画像f0 で設定された点Pab及び
画像fi の同一点の中で最も焦点の合った点を含む画像
が検出されたことになる。As a result, the images f taken in time series are obtained.
Of 0 to fn, the point Pab set in the image f0 and the image including the most focused point among the same points in the image fi are detected.
【0090】その画像を撮像したときの撮像手段の位置
から対象物体までの位置(最も焦点の合った点)の距離
を電子内視鏡の焦点距離とすることで、前記相対形状推
定手段で推定された撮像手段から対象物体上の一点まで
の相対的な距離を絶対的な距離として表すことができ、
これに基づいて対象物体の絶対値形状を推定することが
可能となる。The relative shape estimation means estimates the distance from the position of the image pickup means when the image is picked up to the position of the target object (the most focused point) as the focal length of the electronic endoscope. The relative distance from the image capturing means to one point on the target object can be represented as an absolute distance,
Based on this, it is possible to estimate the absolute value shape of the target object.
【0091】本実施形態では、撮像手段から対象物体ま
での距離について、画像f0 の一つの点からの絶対的な
値を推定したが、複数の点に対して絶対的な値を推定
し、推定された値と相対的な値との比率を求め、その比
率の平均値と相対的な形状より対象物体の絶対的な形状
を推定しても良い。In the present embodiment, the absolute value from one point of the image f0 is estimated for the distance from the image pickup means to the target object, but the absolute value is estimated for a plurality of points and estimated. The absolute shape of the target object may be estimated from the average value of the ratio and the relative shape.
【0092】以上のように、本実施形態によれば、従来
からの内視鏡システムに対して特別な装置を追加した
り、装置構成を変更することなく、時系列的に得られる
画像の特性を利用して対象物体の絶対的な形状を推定す
ることができる。As described above, according to the present embodiment, characteristics of images obtained in time series without adding a special device to the conventional endoscope system or changing the device configuration. Can be used to estimate the absolute shape of the target object.
【0093】また、本実施形態では電子内視鏡の先端を
図12のように移動させて、対象物に対して時系列的な
画像に前ボケ、後ボケの状態をつくったが、実際には心
拍や呼吸等の生体内の動きが発生するために、図12の
ように電子内視鏡を移動させなくても前ボケ、後ボケの
状態が発生した複数の画像を容易に取り込むことができ
る。Further, in the present embodiment, the tip of the electronic endoscope is moved as shown in FIG. 12 to create a front blur and a rear blur in a time-series image of the object. Since movements in the living body such as heartbeats and respirations occur, it is possible to easily capture a plurality of images in which the states of front blur and rear blur are generated without moving the electronic endoscope as shown in FIG. it can.
【0094】次に図18ないし図20を参照して本発明
の第2の実施形態を説明する。Next, a second embodiment of the present invention will be described with reference to FIGS.
【0095】第2の実施形態は距離推定手段の機能構成
を変更した例であり、距離推定手段以外の部分について
は第1の実施形態と同様の構成となっている。The second embodiment is an example in which the functional structure of the distance estimating means is changed, and the parts other than the distance estimating means have the same structure as in the first embodiment.
【0096】第2の実施形態の距離推定手段は、時系列
的に撮像された複数の画像に対してハレーションの存在
する画像とその画像内のハレーションの位置を検出する
ハレーション検出手段と、前記相対形状推定手段より推
定された形状に対して前記ハレーション検出手段からの
ハレーション位置における接平面の法線ベクトルを推定
する法線ベクトル推定手段と、前記接平面の法線ベクト
ルと前記相対形状推定手段により推定される視点から対
象物体までの方向ベクトルと撮像手段のレンズと光源の
出射口の中心間の距離との関係より視点から対象物体の
特定の位置までの距離を推定する絶対距離推定手段と、
を有して構成される。The distance estimation means of the second embodiment is a halation detection means for detecting an image in which halation exists and a position of halation in the image with respect to a plurality of time-sequentially imaged images. The normal vector estimating means for estimating the normal vector of the tangent plane at the halation position from the halation detecting means with respect to the shape estimated by the shape estimating means, and the normal vector of the tangent plane and the relative shape estimating means. Absolute distance estimating means for estimating the distance from the viewpoint to a specific position of the target object from the relationship between the estimated direction vector from the viewpoint to the target object and the distance between the center of the outlet of the light source and the lens of the imaging means,
Is configured.
【0097】同一の対象物体に対して内視鏡先端を移動
させて時系列的な画像を撮像する場合、一般に内視鏡先
端と対象物体との距離に応じて画像内にハレーションが
発生することが多い。ハレーションの発生している対象
物体の表面では、図18に示すように、内視鏡先端から
出射した光と対象物体を反射した光とが対象物体の表面
の法線に対して同じ角度で入射または反射する。When the endoscope tip is moved with respect to the same target object to capture a time-series image, halation generally occurs in the image according to the distance between the endoscope tip and the target object. There are many. On the surface of the target object in which halation occurs, as shown in FIG. 18, the light emitted from the tip of the endoscope and the light reflected from the target object are incident at the same angle with respect to the normal line of the surface of the target object. Or reflect.
【0098】したがって、対象物体の相対形状とハレー
ションの位置が既知であれば、ハレーションを発生して
いる画像を撮像した位置から対象物体上のハレーション
位置までの距離を絶対的な値で与えることができる。Therefore, if the relative shape of the target object and the position of the halation are known, the distance from the position where the image in which the halation is generated to the halation position on the target object can be given as an absolute value. it can.
【0099】第2の実施形態における撮像手段から対象
物体までの絶対的な距離を推定する際の動作を以下に説
明する。The operation for estimating the absolute distance from the image pickup means to the target object in the second embodiment will be described below.
【0100】初めに前述の第1の実施形態で示したよう
に、対象物体の相対的な形状を前記相対形状推定手段に
よって推定する。First, as shown in the first embodiment, the relative shape estimation means estimates the relative shape of the target object.
【0101】その後、撮像手段によって得られた複数の
時系列画像に対してハレーションの位置を検出する。ハ
レーションの検出方法としては、しきい値処理により各
画像の画素毎の輝度レベルが特定の値(しきい値)を越
えたときにハレーションとして検出する方法を用いる。After that, the position of halation is detected for the plurality of time series images obtained by the image pickup means. As a method of detecting halation, a method of detecting as halation when the brightness level of each pixel of each image exceeds a specific value (threshold value) by threshold processing is used.
【0102】次いで、図18に示すように、法線ベクト
ル推定手段により、視点Oから対象物体のハレーション
の位置Pまでのベクトルmとハレーション位置Pにおけ
る接平面の法線ベクトルnを求める。ただし、ベクトル
mと法線ベクトルnは、正規化した同時座標系の組を単
位ベクトルとするNベクトルである。Next, as shown in FIG. 18, the normal vector estimating means obtains a vector m from the viewpoint O to the halation position P of the target object and a normal vector n of the tangent plane at the halation position P. However, the vector m and the normal vector n are N vectors whose unit vector is a set of normalized simultaneous coordinate systems.
【0103】ここで、図19に示すように、対象物上の
点Pにおける接平面の法線ベクトルnを延長した直線と
視点Oから光源Sを結ぶ直線との交点をQ、点Pから点
QへのベクトルをN、点Oから点PへのベクトルをM、
視点Oから光源Sへのベクトルをdとすると、Here, as shown in FIG. 19, the intersection point between the straight line extending the normal vector n of the tangential plane at the point P on the object and the straight line connecting the light source S from the viewpoint O is Q, and the point P is the point. The vector to Q is N, the vector from point O to point P is M,
If the vector from the viewpoint O to the light source S is d,
【数17】 となる。また、このM,Nは適当な係数k0 ,k1 によ
り、[Equation 17] Becomes Also, these M and N are given by appropriate coefficients k0 and k1,
【数18】 と表され、それぞれを式(17)へ代入すると、(Equation 18) And each of them is substituted into the equation (17),
【数19】 となる。[Equation 19] Becomes
【0104】また式(19)の両辺に法線ベクトルnの
外積をとると、When the outer product of the normal vector n is calculated on both sides of the equation (19),
【数20】 となり、式(20)の分母、分子がベクトルとなること
から、分母、分子にn×mの内積をとることで係数k0
を求める。(Equation 20) Since the denominator and the numerator of equation (20) are vectors, the coefficient k0 can be obtained by taking the n × m inner product of the denominator and the numerator.
Ask for.
【0105】[0105]
【数21】 この式(21)のベクトルm,n,dは全て既知なベク
トルであることから係数k0 が求められ、撮像手段から
対象物体上のハレーションを発生している位置までの距
離を絶対的な値として得ることができる。(Equation 21) Since the vectors m, n, and d in this equation (21) are all known vectors, the coefficient k0 is obtained, and the distance from the image pickup means to the position where halation is occurring on the target object is an absolute value. Obtainable.
【0106】よって、ハレーションにより推定された絶
対的な一つの値と前記相対形状推定手段による撮像手段
から対象物体までの相対的な距離が推定されたことか
ら、対象物体までの絶対的な距離を与えられ、これを基
に絶対的な値として対象物体の形状を推定できる。Therefore, since the absolute one value estimated by halation and the relative distance from the image pickup means to the target object by the relative shape estimation means are estimated, the absolute distance to the target object is calculated. Given this, the shape of the target object can be estimated as an absolute value based on this.
【0107】前記法線ベクトルの推定方法の一例を示
す。図20に示すように、画像上のハレーション位置I
H に近接した点IA ,IB ,IC を抽出し、それぞれの
点に対応する対象物体上の点をPH ,PA ,PB ,PC
とすると、3点PA ,PB ,PC で構成される平面は、An example of the method of estimating the normal vector will be shown. As shown in FIG. 20, the halation position I on the image
Points IA, IB, and IC close to H are extracted, and the points on the target object corresponding to the respective points are detected as PH, PA, PB, and PC.
Then, the plane composed of three points PA, PB, and PC is
【数22】 lx +my +nz +p=0 …(22) で表される。この平面の法線ベクトル(l,m,n)を
対象物上のハレーション位置PH における接平面の法線
ベクトルnとする。[Expression 22] lx + my + nz + p = 0 (22) Let the normal vector (l, m, n) of this plane be the normal vector n of the tangent plane at the halation position PH on the object.
【0108】また、対象物体上のハレーション位置PH
に近接した複数の点から、ハレーション位置PH 近辺の
曲面を推定し、曲面上のハレーション位置の法線ベクト
ルを推定しても良い(参照文献:コンピュータディスプ
レイによる形状処理工学〔I〕 日刊工業新聞社 山口
富士夫著:p.49〜p.66)。Further, the halation position PH on the target object
It is also possible to estimate a curved surface near the halation position PH from a plurality of points close to and to estimate the normal vector of the halation position on the curved surface (Reference: Shape Processing Engineering by Computer Display [I] Nikkan Kogyo Shimbun). Fujio Yamaguchi: p.49-p.66).
【0109】なお本実施形態では、一つの画像のハレー
ションから撮像手段と対象物体間の距離に関する一つの
絶対的な値を推定したが、一つの画像の複数のハレーシ
ョンまたは複数の画像の複数のハレーションからそれぞ
れの絶対的な値を推定し、推定された値と相対的な値と
の比率を求め、その比率の平均値と相対的な形状より対
象物体の絶対的な形状を推定しても良い。In this embodiment, one absolute value regarding the distance between the image pickup means and the target object is estimated from the halation of one image. However, a plurality of halations of one image or a plurality of halations of a plurality of images are estimated. The absolute shape of the target object may be estimated from the average value of the ratio and the relative shape by estimating the absolute value of each from the ratio of the estimated value and the relative value. .
【0110】以上のように、本実施形態によれば、従来
からの内視鏡システムに対して特別な装置を追加した
り、装置構成を変更することなく、時系列的に得られる
画像の特性を利用して対象物体の絶対的な形状を推定す
ることができる。As described above, according to the present embodiment, characteristics of images obtained in time series without adding a special device to the conventional endoscope system or changing the device configuration. Can be used to estimate the absolute shape of the target object.
【0111】また、一般に時系列的に内視鏡画像を複数
撮像した場合、その複数の画像の中にハレーションが含
まれることが多々あるため、ハレーションを得るために
特別に電子内視鏡の先端を移動させる必要はなく、容易
に対象物の絶対的な形状を推定できる。Further, in general, when a plurality of endoscopic images are picked up in time series, halation is often included in the plurality of images. Therefore, in order to obtain halation, the tip of the electronic endoscope is special. The absolute shape of the object can be easily estimated without the need to move.
【0112】次に図21及び図22を参照して本発明の
第3の実施形態を説明する。Next, a third embodiment of the present invention will be described with reference to FIGS.
【0113】第3の実施形態は、内視鏡システムに対し
て、装置の構造を変更することなく付加的な装置を追加
することで、対象物の絶対的な形状を推定することを可
能にした構成例を示したものである。The third embodiment makes it possible to estimate the absolute shape of an object by adding an additional device to the endoscope system without changing the structure of the device. 3 shows an example of the configuration.
【0114】図21に示すように、第1の実施形態の内
視鏡システムの構成に加えて、レーザ光を発生するレー
ザ発生装置110と、レーザ発生装置110からのレー
ザ光を電子内視鏡6の鉗子口112から挿入して対象物
体に照射するためのプローブ111と、を備えており、
画像処理装置3内の画像処理手段47において、レーザ
光が照射された状態で撮像された複数の画像より視点か
ら対象物体の特定の点までの距離を推定する距離推定手
段を有して構成される。As shown in FIG. 21, in addition to the configuration of the endoscope system of the first embodiment, a laser generator 110 for generating a laser beam, and a laser beam from the laser generator 110 are supplied to an electronic endoscope. 6, a probe 111 for irradiating a target object by inserting from a forceps port 112 of 6,
The image processing means 47 in the image processing device 3 is configured to have a distance estimating means for estimating a distance from a viewpoint to a specific point of the target object from a plurality of images taken in a state where the laser light is irradiated. It
【0115】第3の実施形態の距離推定手段は、撮像手
段の視点からレーザ光が出射される位置への出射位置ベ
クトルを算出する出射位置ベクトル算出手段と、前記算
出された出射位置ベクトルと前記撮像手段の視点から対
象物体上に照射されたレーザ光の照射位置への照射位置
ベクトルとで構成されるレーザ照射ベクトルを算出する
レーザ照射ベクトル算出手段と、この算出されたレーザ
光照射ベクトルの外積が0になることから前記撮像手段
の対象物体上のレーザ光が照射された位置までの距離を
推定する絶対距離推定手段と、を有して構成される。The distance estimating means of the third embodiment is an emitting position vector calculating means for calculating an emitting position vector from the viewpoint of the image pickup means to a position where the laser light is emitted, the calculated emitting position vector and the aforesaid Laser irradiation vector calculation means for calculating a laser irradiation vector composed of the irradiation position vector of the irradiation position of the laser light irradiated on the target object from the viewpoint of the image pickup means, and the outer product of the calculated laser light irradiation vector From 0 to 0, the absolute distance estimating means for estimating the distance from the image pickup means to the position on the target object irradiated with the laser beam is provided.
【0116】本実施形態の作用を以下に説明する。図2
1に示すように、レーザ発生装置110に接続したプロ
ーブ111を電子内視鏡6の鉗子口112から挿入す
る。そして、鉗子口112より挿入されたプローブ11
1の先端がモニタ8上の観察画像の特定の位置に存在す
るように内視鏡の先端から突出させる。この状態でレー
ザ光を照射しながら電子内視鏡6の先端を対象物体上で
移動し、複数の画像を撮像する。The operation of this embodiment will be described below. FIG.
As shown in FIG. 1, the probe 111 connected to the laser generator 110 is inserted from the forceps port 112 of the electronic endoscope 6. Then, the probe 11 inserted from the forceps port 112
The tip of No. 1 is projected from the tip of the endoscope so that the tip of the No. 1 exists at a specific position of the observed image on the monitor 8. In this state, while irradiating the laser beam, the tip of the electronic endoscope 6 is moved over the target object to capture a plurality of images.
【0117】撮像された複数の画像を画像処理装置3に
取り込み、前述した相対形状推定手段50により対象物
体の相対形状を推定する。The plurality of picked-up images are taken into the image processing apparatus 3, and the relative shape estimation means 50 described above estimates the relative shape of the target object.
【0118】また、プローブの先端がモニタ8上の観察
画像の特定の位置に存在するように内視鏡の先端から突
出しているため、電子内視鏡6の撮像手段の位置とプロ
ーブの先端の位置関係を求めることができる。Further, since the tip of the probe projects from the tip of the endoscope so that it exists at a specific position of the observed image on the monitor 8, the position of the image pickup means of the electronic endoscope 6 and the tip of the probe are different. The positional relationship can be obtained.
【0119】したがって、プローブの先端位置と観察画
像上のレーザ光の照射位置、及び対象物体の相対的な形
状から、対象物体上のレーザ光の照射位置までの距離が
推定できる。Therefore, the distance to the irradiation position of the laser light on the target object can be estimated from the tip position of the probe, the irradiation position of the laser light on the observed image, and the relative shape of the target object.
【0120】距離推定手段により対象物体上のレーザ光
の照射位置までの距離を推定する方法を図22に基づい
て以下に説明する。A method of estimating the distance to the irradiation position of the laser light on the target object by the distance estimating means will be described below with reference to FIG.
【0121】図22(a)は、二つの異なる位置で対象
物体を撮像したときの電子内視鏡6の先端と対象物体、
及びレーザ光の照射位置を示したものである。FIG. 22A shows the tip of the electronic endoscope 6 and the target object when the target object is imaged at two different positions.
And the irradiation position of the laser beam.
【0122】撮像手段の位置に対してプローブ先端の位
置とレーザ光の照射方向は、対象物体上をどのように移
動しても同一であることから、図22(a)の二つの異
なる位置で撮像した際の撮像手段を同一点に重ね合わせ
ると、図22(b)のように表すことができる。ここ
で、図22(b)を図22(c)のようにベクトルで表
す。Since the position of the probe tip and the irradiation direction of the laser beam with respect to the position of the image pickup means are the same no matter how they move on the target object, they are set at two different positions in FIG. 22 (a). When the image pickup means at the time of image pickup is overlapped on the same point, it can be expressed as shown in FIG. Here, FIG. 22B is represented by a vector as shown in FIG.
【0123】撮像手段の視点からプローブの先端へのベ
クトルをL、二つの異なる位置で撮像したときの撮像手
段の視点から対象物体上へ照射されたレーザ光の照射位
置へのベクトルをM1 ,M2 とすると、L is a vector from the viewpoint of the imaging means to the tip of the probe, and M1 and M2 are vectors from the viewpoint of the imaging means to the irradiation position of the laser light radiated on the target object when imaging is performed at two different positions. Then,
【数23】 となる。(Equation 23) Becomes
【0124】ここで、m1 ,m2 は前記相対形状推定手
段により推定された撮像手段の視点から対象物体上へ照
射されたレーザ光の照射位置への単位方向ベクトル、k
は倍率である。Here, m1 and m2 are unit direction vectors to the irradiation position of the laser light irradiated onto the target object from the viewpoint of the image pickup means estimated by the relative shape estimation means, k
Is the magnification.
【0125】また、図22(c)で示すように、レーザ
光の照射方向が常に一定なことから、Lとm1 より得ら
れるベクトル(L−km1 )と、Lとm2 より得られる
ベクトル(L−km2 )は、方向が同じで大きさが異な
るベクトルである。したがって、次式に示すようにこの
二つのベクトルの外積は0となる。Further, as shown in FIG. 22C, since the irradiation direction of the laser light is always constant, the vector (L-km1) obtained from L and m1 and the vector (L-m1) obtained from L and m2. -Km2) is a vector with the same direction but different magnitude. Therefore, the outer product of these two vectors is 0 as shown in the following equation.
【0126】[0126]
【数24】 この式(24)より係数kを求めると、(Equation 24) When the coefficient k is calculated from this equation (24),
【数25】 (Equation 25)
【数26】 となる。(Equation 26) Becomes
【0127】式(26)の分母、分子がベクトルとなる
ことから、分母、分子にm1 ×m2の内積をとると、Since the denominator and the numerator of the equation (26) are vectors, if the inner product of m1 × m2 is taken for the denominator and the numerator,
【数27】 となる。[Equation 27] Becomes
【0128】この式(27)のベクトルL,m1 ,m2
は全て既知なベクトルであることから係数kが求めら
れ、撮像手段から対象物体上の一点までの距離を絶対的
な値として得ることができる。The vector L, m1, m2 of this equation (27)
Is a known vector, the coefficient k is obtained, and the distance from the image pickup means to one point on the target object can be obtained as an absolute value.
【0129】また、式(25)において、Further, in the equation (25),
【数28】 とおくと、式(25)は、[Equation 28] Then, equation (25) becomes
【数29】 となり、式(29)の両辺を二乗することで、(Equation 29) Then, by squaring both sides of equation (29),
【数30】 が求められる(ただし、・は内積を表す)。[Equation 30] Is required (however, · represents the dot product).
【0130】複数の画像より、撮像手段の視点から対象
物体上に照射されたレーザ光の照射位置へのベクトルは
複数存在する。From a plurality of images, there are a plurality of vectors from the viewpoint of the image pickup means to the irradiation position of the laser light irradiated on the target object.
【0131】したがって、式(30)に最小二乗法を適
用し、Therefore, the least squares method is applied to the equation (30),
【数31】 を満足するようなkを推定する方法を用いれば良い。(Equation 31) A method for estimating k that satisfies
【0132】前記撮像手段の視点からプローブの先端へ
のベクトルLを算出する手順を以下に示す。The procedure for calculating the vector L from the viewpoint of the image pickup means to the tip of the probe will be described below.
【0133】図22(a)に示すように、L−km1 と
L−km2 との関係はkの値に関わらず常に成立する。
すなわちこれらは、kの値が0以外のどのような値をと
っても、方向が同じで大きさの異なるベクトルである。
よってk=1として、As shown in FIG. 22A, the relationship between L-km1 and L-km2 always holds regardless of the value of k.
That is, these are vectors having the same direction but different magnitudes regardless of any value of k other than 0.
Therefore, if k = 1,
【数32】 となるLを求める。(Equation 32) And obtain L.
【0134】式(32)は、Equation (32) is
【数33】 となり、それぞれのベクトルを成分で表すと、[Equation 33] And each vector is expressed as a component,
【数34】 となる。(Equation 34) Becomes
【0135】式(33)に式(34)をそれぞれ代入す
ると、Substituting equation (34) into equation (33),
【数35】 この式(35)を展開すると、(Equation 35) Expanding this equation (35),
【数36】 m1ym2z−m1zmy −{Ly (m1z+m2z)−Lz (m1y+my )}=0 m1zm2x−m1xmz −{Lz (m1x+m2x)−Lx (m1z+mz )}=0 m1xm2y−m1ymx −{Lx (m1y+m2y)−Ly (m1x+mx )}=0 …(36) となり、式(36)よりLx ,Ly ,Lz を求めること
ができる。Equation 36] m1ym2z-m1zmy - {Ly (m1z + m2z) -Lz (m1y + my)} = 0 m1zm2x-m1xmz - {Lz (m1x + m2x) -Lx (m1z + mz)} = 0 m1xm2y-m1ymx - {Lx (m1y + m2y) -Ly ( m1x + mx)} = 0 (36) and Lx, Ly, and Lz can be obtained from the equation (36).
【0136】このように得られた撮像手段から対象物体
上の一点までの絶対的な距離に基づいて、対象物体の絶
対値形状を推定することが可能となる。It is possible to estimate the absolute value shape of the target object based on the absolute distance from the image pickup means thus obtained to one point on the target object.
【0137】以上のように、本実施形態によれば、従来
からの内視鏡システムの構成を特別に変更することな
く、付加的な装置(ここではレーザ光照射装置)を追加
することで対象物体の絶対的な形状を推定することがで
きる。このとき、プローブから照射されるレーザ光の照
射方向が、プローブを内視鏡の鉗子口から挿入する度に
変わった場合でも、常に絶対的な形状を推定することが
できる。ただしこの場合、内視鏡の先端を移動して複数
の画像を得ている期間は、レーザ光の照射方向は変化し
ないものとする。As described above, according to this embodiment, an additional device (here, a laser light irradiation device) is added without changing the configuration of the conventional endoscope system. The absolute shape of the object can be estimated. At this time, even if the irradiation direction of the laser light emitted from the probe changes every time the probe is inserted from the forceps port of the endoscope, the absolute shape can be always estimated. However, in this case, it is assumed that the irradiation direction of the laser light does not change while the distal end of the endoscope is moved to obtain a plurality of images.
【0138】次に図23ないし図27を参照して本発明
の第4の実施形態を説明する。Next, a fourth embodiment of the present invention will be described with reference to FIGS.
【0139】第4の実施形態は、第1及び第2の実施形
態と同様に、内視鏡システムに対して特別な装置を付加
したり、装置の構造を変更することなく、対象物の絶対
的な形状を推定することを可能にした構成例を示したも
のである。The fourth embodiment, like the first and second embodiments, does not add a special device to the endoscope system or changes the structure of the device so that the absolute object can be detected. It is an example of a configuration that makes it possible to estimate a typical shape.
【0140】第4の実施形態は距離推定手段の機能構成
を変更した例であり、距離推定手段以外の部分について
は第1の実施形態と同様の構成となっている。The fourth embodiment is an example in which the functional structure of the distance estimating means is changed, and the parts other than the distance estimating means have the same structure as in the first embodiment.
【0141】第4の実施形態の距離推定手段は、対象物
体の表面の法線ベクトルを推定する法線ベクトル推定手
段と、撮像手段の視点から光源へのベクトルを推定する
光源位置ベクトル推定手段と、前記相対形状推定手段で
推定された撮像手段の視点から対象物体上の一点までの
相対的な距離と前記法線ベクトル及び前記光源位置ベク
トルの関係から対象物体上の一点の輝度を推定する輝度
推定手段と、対象物体上の複数の点の輝度の比率を前記
輝度推定手段と実際の画像から求め、輝度の比率に関す
る複数の方程式を算出する方程式算出手段と、前記輝度
の比率に関する複数の方程式より撮像手段から対象物体
上の点へのベクトルの倍率を推定して対象物体までの絶
対的な距離を推定する絶対距離推定手段と、を有して構
成される。The distance estimating means of the fourth embodiment includes a normal vector estimating means for estimating a normal vector of the surface of the target object, and a light source position vector estimating means for estimating a vector from the viewpoint of the image pickup means to the light source. A luminance for estimating the luminance of a point on the target object from the relationship between the relative distance from the viewpoint of the image pickup means estimated by the relative shape estimation means to the point on the target object and the normal vector and the light source position vector Estimating means, equation calculating means for obtaining the ratio of luminance of a plurality of points on the target object from the luminance estimating means and an actual image, and calculating a plurality of equations relating to the luminance ratio, and a plurality of equations relating to the luminance ratio. And an absolute distance estimating means for estimating the absolute distance to the target object by estimating the magnification of the vector from the image pickup means to the point on the target object.
【0142】図23に示すように、単眼内視鏡の照明光
を点光源、対象物体の表面を完全拡散面と仮定した場
合、撮像手段で得られる対象物体上の一点の輝度値E
は、As shown in FIG. 23, assuming that the illumination light of the monocular endoscope is a point light source and the surface of the target object is a perfect diffusing surface, the brightness value E at one point on the target object obtained by the image pickup means.
Is
【数37】 のように求められる。ただし、ρは拡散反射率、xは光
源から対象物体上の一点までの距離、θは光源から対象
物体上の一点へのベクトルとその点の法線ベクトルとの
なす角度である。(37) Is required. Here, ρ is the diffuse reflectance, x is the distance from the light source to one point on the target object, and θ is the angle formed by the vector from the light source to one point on the target object and the normal vector at that point.
【0143】図24に示すように、光源から対象物体上
の適当な一点へのベクトルXi と対象物体の一点の法線
ベクトルni とのなす角度θi は、As shown in FIG. 24, the angle θi formed by the vector Xi from the light source to an appropriate point on the target object and the normal vector ni of the target object at one point is
【数38】 となる。法線ベクトルni は、単位方向ベクトルである
ことから、(38) Becomes Since the normal vector ni is a unit direction vector,
【数39】 である。[Equation 39] It is.
【0144】式(37),(38)から輝度Ei は、From equations (37) and (38), the luminance Ei is
【数40】 となる。(Equation 40) Becomes
【0145】図25に示すように、前記相対形状推定手
段により画像fi を撮像したときの撮像手段の位置を基
準として得られた撮像手段の視点Oから対象物体上の2
点A,Bまでの各ベクトルM1 ,M2 は、As shown in FIG. 25, from the viewpoint O of the image pickup means obtained on the basis of the position of the image pickup means when the image fi is picked up by the relative shape estimation means, two points on the target object are detected.
The vectors M1 and M2 to the points A and B are
【数41】 となる。ただし、kは倍率である。[Equation 41] Becomes However, k is a magnification.
【0146】また、撮像手段の視点Oから光源Sまでの
光源位置ベクトルをLとおくと、対象物体の2点から光
源へのベクトルX1 ,X2 は、When the light source position vector from the viewpoint O of the image pickup means to the light source S is L, the vectors X1 and X2 from the two points of the target object to the light source are
【数42】 となり、式(40)より各々の点における輝度E1 ,E
2 は、(Equation 42) From equation (40), the brightness at each point E1, E
2 is
【数43】 として推定される。[Equation 43] Is estimated as.
【0147】また、実際の画像fi から得られる2点の
輝度をそれぞれI1 ,I2 とすると、これらの輝度の比
率は、Further, assuming that the luminances of two points obtained from the actual image fi are I1 and I2, respectively, the ratio of these luminances is
【数44】 となる。[Equation 44] Becomes
【0148】式(44)をkについて解くと複数の解が
算出される。したがって、少なくとももう1組の異なる
点から輝度の比率を算出し、それぞれの方程式を満たす
倍率kを推定する。By solving the equation (44) for k, a plurality of solutions are calculated. Therefore, the luminance ratio is calculated from at least another set of different points, and the magnification k that satisfies each equation is estimated.
【0149】前記光源位置ベクトルの推定方法の一例を
示す。図26に示すように、光軸に対して垂直に視点O
から距離Zの位置に、鏡とこの鏡面上に間隔が既知の格
子パターンとをおき、その画像を撮像する。鏡面上の格
子パターンの間隔をd、撮像された画像上の格子パター
ンの間隔をd′、焦点距離をeとすると、視点Oより鏡
面までの距離Zは、An example of the method of estimating the light source position vector will be shown. As shown in FIG. 26, the viewpoint O is perpendicular to the optical axis.
A mirror and a grid pattern with a known interval are placed on the mirror surface at a distance Z from and an image of the mirror pattern is captured. Assuming that the distance between the lattice patterns on the mirror surface is d, the distance between the lattice patterns on the captured image is d ′, and the focal length is e, the distance Z from the viewpoint O to the mirror surface is
【数45】 となる。[Equation 45] Becomes
【0150】また図27に示すように、撮像された画像
内の照明光源の反射位置(x,y,e)から鏡面上の反
射位置ベクトルV(X,Y,Z)は、As shown in FIG. 27, the reflection position vector V (X, Y, Z) on the mirror surface from the reflection position (x, y, e) of the illumination light source in the captured image is
【数46】 となる。[Equation 46] Becomes
【0151】また、照明光源の照射端と鏡面との距離b
を測定し、照明光源の照射端の鏡面に対する対称な位置
ベクトルV′(X′,Y′,Z′)を求めると、The distance b between the irradiation end of the illumination light source and the mirror surface
Is measured, and a symmetrical position vector V '(X', Y ', Z') with respect to the mirror surface of the irradiation end of the illumination light source is obtained,
【数47】 となる。[Equation 47] Becomes
【0152】したがって、照射光源の照射位置ベクトル
VS は、Therefore, the irradiation position vector VS of the irradiation light source is
【数48】 となり、この式(48)より光源位置ベクトルを求める
ことができる。[Equation 48] Therefore, the light source position vector can be obtained from this equation (48).
【0153】なお、法線ベクトルの推定は、第2の実施
形態で示した方法を用いて行うことができる。The estimation of the normal vector can be performed by using the method shown in the second embodiment.
【0154】また、本実施形態の距離推定手段では、画
像内の3点より撮像手段から対象物体上の点へのベクト
ルの倍率を推定することを可能にしたが、画像内の複数
の点から倍率を推定することも考えられる。Further, the distance estimating means of the present embodiment makes it possible to estimate the vector magnification from the image pickup means to the point on the target object from three points in the image. It is also possible to estimate the magnification.
【0155】この場合は、式(44)に最小二乗法を適
用し、各点の輝度の比率が、In this case, the least squares method is applied to the equation (44), and the luminance ratio of each point is
【数49】 を満たすような倍率kを求めることで推定できる。[Equation 49] It can be estimated by determining the magnification k that satisfies the above condition.
【0156】なお、前記相対形状推定手段では、図10
及び図11に示したように、時系列的に得られた画像の
各画像が撮像された位置を撮像手段の視点とし、視点か
ら対象物体までの相対的な距離を算出している。In the relative shape estimating means shown in FIG.
Also, as shown in FIG. 11, the position at which each image of the images obtained in time series is captured is set as the viewpoint of the image capturing unit, and the relative distance from the viewpoint to the target object is calculated.
【0157】前述した距離推定手段では、前記相対形状
推定手段で推定された一つの相対形状と画像とから一つ
の倍率kを推定した。In the distance estimating means described above, one magnification k is estimated from one relative shape estimated by the relative shape estimating means and the image.
【0158】しかし、前記相対形状推定手段では、複数
の画像と各画像が撮像された位置での相対的な距離が求
められていることから、前記距離推定手段より各相対形
状とその基準となった画像から倍率kx を求め、次式に
示すようにその平均値から一つの倍率〈k〉を推定する
こともできる。However, since the relative shape estimating means obtains the relative distances between the plurality of images and the positions where the respective images are picked up, the relative shape estimating means determines the relative shapes and their relative distances. It is also possible to obtain the magnification kx from the image and estimate one magnification <k> from the average value as shown in the following equation.
【0159】[0159]
【数50】 以上のように、本実施形態によれば、従来からの内視鏡
システムに対して特別な装置を追加したり、装置構成を
変更することなく、時系列的に画像を得て、その画像が
撮像された位置を撮像手段の視点とし、視点から対象物
体までの相対的な距離から一つの絶対的な値を算出して
対象物体の絶対的な形状を推定することが可能となる。[Equation 50] As described above, according to the present embodiment, images are obtained in time series without adding a special device to the conventional endoscope system or changing the device configuration, and the images are It is possible to estimate the absolute shape of the target object by calculating one absolute value from the relative distance from the viewpoint to the target object, using the imaged position as the viewpoint of the imaging unit.
【0160】次に本発明の第5の実施形態を説明する。Next, a fifth embodiment of the present invention will be described.
【0161】第5の実施形態は、第4の実施形態の構成
に画像内の同一な色の点を検出する同一色点検出手段を
加えた例である。The fifth embodiment is an example in which the same color point detecting means for detecting points of the same color in an image is added to the configuration of the fourth embodiment.
【0162】第4の実施形態では、図25に示したよう
に、位置の異なる2点を抽出してその2点の輝度の比率
と別の2組の点の輝度の比率とから対象物体までの絶対
的な距離を推定した。In the fourth embodiment, as shown in FIG. 25, two points at different positions are extracted and the ratio of the brightness of the two points and the ratio of the brightness of another two sets of points are used to determine the target object. Estimated the absolute distance of.
【0163】本実施形態では、対象物体上の同じ色の点
は拡散反射率が同一と考えて、撮像された画像の同じ色
の点を抽出して絶対的な距離を求める。In the present embodiment, points of the same color on the target object are considered to have the same diffuse reflectance, and points of the same color in the captured image are extracted to obtain the absolute distance.
【0164】撮像された画像内で同じ色の点を抽出する
には、画像内の各点を表す色の成分をRj ,Gj ,Bj
とし、基準となる点の色の成分をR0 ,G0 ,B0 とし
た場合に、In order to extract points of the same color in the picked-up image, the color components representing each point in the image are Rj, Gj, Bj.
And when the color components of the reference point are R0, G0, B0,
【数51】 R0 =Rj (j≠0) G0 =Gj (j≠0) …(51) B0 =Bj (j≠0) を満たすように基準となる色の成分と同一となる複数の
点を選ぶ。あるいは、次式のように適当な範囲を設け、
その範囲内の色を持つ点を選ぶ方法もある。[Equation 51] R0 = Rj (j ≠ 0) G0 = Gj (j ≠ 0) (51) B0 = Bj (j ≠ 0) Choose. Alternatively, set an appropriate range as in the following equation,
There is also a way to choose points with colors within that range.
【0165】[0165]
【数52】 (R0 −α)≦Rj ≦(R0 +α) (j≠0) (G0 −β)≦Gj ≦(G0 +β) (j≠0) …(52) (B0 −γ)≦Bj ≦(B0 +γ) (j≠0) また、明るさが変化した場合でも同一の色を抽出するに
は、各点の成分を正規化した値(R0-α) ≤Rj≤ (R0 + α) (j ≠ 0) (G0-β) ≤Gj≤ (G0 + β) (j ≠ 0) (52) (B0-γ) ≤Bj≤ (B0 + γ) (j ≠ 0) In order to extract the same color even when the brightness changes, the value obtained by normalizing the components at each point
【数53】 を用いて、各色成分が同一または適当な範囲内となる点
を抽出する方法がある。(Equation 53) There is a method of extracting a point where each color component is the same or within an appropriate range by using.
【0166】また、前記撮像手段から対象物体上の点へ
のベクトルの倍率を推定する方法として、2点間の色の
差を重み関数wijとし、画像内の複数の点より倍率を推
定することも考えられる。As a method of estimating the vector magnification from the image pickup means to a point on the target object, the difference in color between two points is used as a weighting function wij, and the magnification is estimated from a plurality of points in the image. Can also be considered.
【0167】例えば、2点の各色成分の輝度の差の二乗
和に適当な係数Wk を掛けた値を引いた関数For example, a function obtained by subtracting a value obtained by multiplying the sum of squares of the difference in luminance between the two color components by an appropriate coefficient Wk.
【数54】 を重み関数wijとする。ただし、Wk は、(Equation 54) Is a weighting function wij. However, Wk is
【数55】 の条件を満たすものとする。[Equation 55] The condition of is satisfied.
【0168】これより、式(49)の最小二乗法に重み
関数wijを適用し、各点の輝度の比率が、From this, the weighting function wij is applied to the least squares method of the equation (49), and the ratio of the brightness of each point is
【数56】 を満たすような倍率kを求めることで推定できる。[Equation 56] It can be estimated by determining the magnification k that satisfies the above condition.
【0169】本実施形態によれば、対象物体上の同じ色
の点は拡散反射率が同一と考えて、拡散反射率が同一と
なる点を用いて輝度の比率を算出することにより、対象
物体までの絶対的な距離を正確に推定できる。よって第
4の実施形態と同様に、特別な装置を付加したり、装置
の構造を変更することなく対象物体の絶対的な形状を正
確に推定することが可能となる。According to the present embodiment, points of the same color on the target object are considered to have the same diffuse reflectance, and the brightness ratio is calculated using the points having the same diffuse reflectance to obtain the target object. You can accurately estimate the absolute distance to. Therefore, as in the fourth embodiment, it is possible to accurately estimate the absolute shape of the target object without adding a special device or changing the structure of the device.
【0170】次に図28ないし図32を参照して本発明
の第6の実施形態を説明する。Next, a sixth embodiment of the present invention will be described with reference to FIGS. 28 to 32.
【0171】第6の実施形態は、第4の実施形態の構成
に画像内の各点毎の相互相関のピークが鋭くなる点を検
出するピーク検出手段を加えた例である。The sixth embodiment is an example in which peak detecting means for detecting a point at which a peak of cross-correlation at each point in an image becomes sharp is added to the configuration of the fourth embodiment.
【0172】本実施形態では、時系列的に得られた複数
の画像の中から適当な一つの画像を抽出し、その画像中
の明確な模様や細かい模様の存在する特定の領域をテン
プレート画像とする。このテンプレート画像と他の画像
との対応点の検出を行うようにすれば、対応点を精度よ
く検出することができる。In the present embodiment, an appropriate one image is extracted from a plurality of images obtained in time series, and a specific area in which a clear pattern or a fine pattern exists is used as a template image. To do. If the corresponding points of this template image and other images are detected, the corresponding points can be accurately detected.
【0173】対応点が精度よく検出される点では、その
点に対応する相対的な距離や法線ベクトルも正確に推定
されると考えられる。At the point where the corresponding point is accurately detected, it is considered that the relative distance and the normal vector corresponding to the point are also accurately estimated.
【0174】したがって、本実施形態では対応点が精度
よく検出された点を選択し、その点をテンプレート画像
として第4の実施形態における距離推定方法に適用して
対象物体までの絶対的な距離を求める。Therefore, in this embodiment, a point in which the corresponding points are detected with high accuracy is selected, and the point is used as a template image in the distance estimation method in the fourth embodiment to determine the absolute distance to the target object. Ask.
【0175】図28に示すように、ある画像A内の適当
な領域をテンプレート画像とし、他の画像B内の特定の
領域を移動させて各点毎の相互相関の値を求めると、テ
ンプレート画像と最も一致した位置を最大にして、図2
9に示す鳥瞰図のような山形形状の特性図が得られる。As shown in FIG. 28, when an appropriate area in a certain image A is used as a template image and a specific area in another image B is moved to obtain a cross-correlation value for each point, the template image is obtained. Figure 2
A mountain-shaped characteristic diagram such as the bird's-eye view shown in FIG. 9 is obtained.
【0176】この相互相関の値は、図30に示すよう
に、画像内の明確な模様や細かい模様の存在する領域を
テンプレート画像とすると、特性図は鋭い形状を示す。
また、明瞭でない模様やボケた画像では、特性図はブロ
ードな形状を示す。As shown in FIG. 30, the value of this cross-correlation shows that the characteristic diagram shows a sharp shape when the template image is an area where a clear pattern or a fine pattern exists in the image.
Further, in the case of an unclear pattern or a blurred image, the characteristic diagram shows a broad shape.
【0177】したがって、相互相関の値が鋭い形状を示
すような点を、対応点を精度よく検出可能な点とするこ
とができる。Therefore, a point having a sharp cross-correlation value can be set as a point at which the corresponding point can be accurately detected.
【0178】そこで本実施形態では、図31に示すよう
に、前記相対形状推定手段で設定された画像f0 内の複
数の点Pab(a=0,1,2,…,q、b=0,1,
2,…,r)に対し、各点を中心に適当な領域Tab(以
後テンプレート画像とする)を設定する。そして、他の
画像fi 内の適当な領域Sab(以後サーチエリアとす
る)に対し、テンプレート画像Tabを移動して各点毎の
相互相関の値を求める。Therefore, in the present embodiment, as shown in FIG. 31, a plurality of points Pab (a = 0, 1, 2, ..., Q, b = 0, in the image f0 set by the relative shape estimating means are set. 1,
2, ..., R), an appropriate area Tab (hereinafter referred to as a template image) is set around each point. Then, the template image Tab is moved to an appropriate area Sab (hereinafter referred to as a search area) in another image fi, and the value of the cross-correlation for each point is obtained.
【0179】相互相関の値としては、As the value of the cross correlation,
【数57】 のような正規化相互相関を用いる。ただし、∬S はサー
チエリアSabの積分、〈fi 〉はサーチエリア内のテン
プレート画像と同等の領域における平均値、〈t〉はテ
ンプレート画像の平均値を表す。[Equation 57] A normalized cross correlation such as However, ∬S is the integral of the search area Sab, <fi> is the average value in the area equivalent to the template image in the search area, and <t> is the average value of the template image.
【0180】次に、図32に示すように、相互相関の値
の鳥瞰図を最大位置を中心にx方向、y方向に切り出
し、相互相関の最大値をDp ,相互相関の値のしきい値
をDtとしたときのx方向、y方向への広がりをWx ,
Wy とする。Next, as shown in FIG. 32, a bird's-eye view of cross-correlation values is cut out in the x and y directions centering on the maximum position, and the maximum cross-correlation value is set to Dp and the cross-correlation value threshold value is set. Let Dx be the spread in the x and y directions as Wx,
Wy.
【0181】このとき、相互相関値の形状の鋭さを、At this time, the sharpness of the shape of the cross-correlation value is
【数58】 とすると、式(58)が大きい値を示すほど形状が鋭く
なる。[Equation 58] Then, the larger the value of Expression (58), the sharper the shape.
【0182】上記のように、画像f0 内で設定された点
について相互相関の値に関する形状の鋭さを求め、しき
い値処理等により各点の鋭さが大きい点を抽出する。As described above, the sharpness of the shape relating to the value of the cross-correlation is obtained with respect to the points set in the image f0, and the points having large sharpness are extracted by the threshold processing or the like.
【0183】この相互相関のピークが鋭くなる点を用い
て、第4の実施形態の距離推定方法にしたがって対象物
体までの絶対的な距離を算出する。Using the point where the peak of this cross-correlation becomes sharp, the absolute distance to the target object is calculated according to the distance estimation method of the fourth embodiment.
【0184】また、前記撮像手段から対象物体上の点へ
のベクトルの倍率を推定する方法として、相互相関値の
形状の鋭さを重み関数wijとし、画像内の複数の点より
倍率を推定することも考えられる。As a method of estimating the magnification of the vector from the image pickup means to the point on the target object, the sharpness of the shape of the cross-correlation value is used as the weighting function wij, and the magnification is estimated from a plurality of points in the image. Can also be considered.
【0185】例えば、2点のうち形状の鋭さが小さい方
の値Sh に適当な係数Wk を掛けたものFor example, the value Sh of the two points having the smaller shape sharpness multiplied by an appropriate coefficient Wk
【数59】 wij=Sh ×Wk (i≠j) …(59) を重み関数wijとする。## EQU00005 ## Wij = Sh.times.Wk (i.noteq.j) (59) is a weighting function wij.
【0186】これより、式(49)の最小二乗法に重み
関数wijを適用し、各点の輝度の比率が、From this, the weighting function wij is applied to the least squares method of the equation (49), and the ratio of the luminance of each point is
【数60】 を満たすような倍率kを求めることで推定できる。[Equation 60] It can be estimated by determining the magnification k that satisfies the above condition.
【0187】本実施形態によれば、法線ベクトルが正確
に推定される点を用いて輝度の比率を算出することによ
り、対象物体までの絶対的な距離を正確に推定できる。
よって第4の実施形態と同様に、特別な装置を付加した
り、装置の構造を変更することなく対象物体の絶対的な
形状を正確に推定することが可能となる。According to the present embodiment, the absolute distance to the target object can be accurately estimated by calculating the luminance ratio using the point where the normal vector is accurately estimated.
Therefore, as in the fourth embodiment, it is possible to accurately estimate the absolute shape of the target object without adding a special device or changing the structure of the device.
【0188】次に本発明の第7の実施形態を説明する。Next, a seventh embodiment of the present invention will be described.
【0189】第7の実施形態は第4の実施形態の距離推
定手段の機能構成を変更した例である。The seventh embodiment is an example in which the functional configuration of the distance estimating means of the fourth embodiment is changed.
【0190】第7の実施形態の距離推定手段は、対象物
体の表面の法線ベクトルを推定する法線ベクトル推定手
段と、撮像手段の視点から光源へのベクトルを推定する
光源位置ベクトル推定手段と、前記相対形状推定手段で
推定された撮像手段の視点から対象物体上の一点までの
相対的な距離と前記法線ベクトル及び前記光源位置ベク
トルの関係から対象物体上の一点の輝度を推定する輝度
推定手段と、画像内の各点に対して前記輝度推定手段で
得られた輝度と画像から得られる輝度をその周辺の輝度
の平均で正規化する輝度正規化手段と、前記輝度正規化
手段で得られた各点の正規化された輝度を基に最小二乗
法により撮像手段から対象物体上の点へのベクトルの倍
率を推定して対象物体までの絶対的な距離を推定する絶
対距離推定手段と、を有して構成される。The distance estimating means of the seventh embodiment includes a normal vector estimating means for estimating a normal vector of the surface of the target object, and a light source position vector estimating means for estimating a vector from the viewpoint of the image pickup means to the light source. A luminance for estimating the luminance of a point on the target object from the relationship between the relative distance from the viewpoint of the image pickup means estimated by the relative shape estimation means to the point on the target object and the normal vector and the light source position vector The estimating means, the luminance normalizing means for normalizing the luminance obtained by the luminance estimating means for each point in the image and the luminance obtained from the image by the average of the surrounding luminance, and the luminance normalizing means. Absolute distance estimation means for estimating the absolute distance to the target object by estimating the magnification of the vector from the image pickup means to the point on the target object by the least-squares method based on the obtained normalized luminance of each point When Configured to have a.
【0191】第4の実施形態では、図25に示したよう
に、位置の異なる2点を抽出してその2点の輝度の比率
と別の2組の点の輝度の比率とから対象物体までの絶対
的な距離を推定した。In the fourth embodiment, as shown in FIG. 25, two points at different positions are extracted, and the ratio of the brightness of the two points and the ratio of the brightness of another two sets of points are used to extract the target object. Estimated the absolute distance of.
【0192】本実施形態では、対象物体上の複数の点の
中から選ばれた点の輝度を周辺の輝度の平均で正規化す
ることにより、ノイズ等の影響を抑制して対象物体まで
の絶対的な距離を求める。In the present embodiment, the brightness of a point selected from a plurality of points on the target object is normalized by the average of the surrounding brightness to suppress the influence of noise or the like and to reach the target object. The desired distance.
【0193】本実施形態における前記撮像手段から対象
物体上の点へのベクトルの倍率を推定する方法を示す。A method of estimating the vector magnification from the image pickup means to the point on the target object in the present embodiment will be described.
【0194】画像fi 内の適当な一点の輝度をI(X,
Y)とおき、その周辺輝度をI(x,y)とすると、輝
度I(X,Y)をその周辺の輝度の平均で正規化した値
I′(X,Y)は、The brightness of an appropriate point in the image fi is I (X,
Y) and the peripheral luminance is I (x, y), the value I ′ (X, Y) obtained by normalizing the luminance I (X, Y) by the average of the peripheral luminance is
【数61】 となる。[Equation 61] Becomes
【0195】式(43),(61)より、I′(X,
Y)は、From equations (43) and (61), I '(X,
Y) is
【数62】 となり、式(62)から式(61)は拡散反射率ρの影
響を受けないことがわかる。(Equation 62) Therefore, it can be seen from Expression (62) that Expression (61) is not affected by the diffuse reflectance ρ.
【0196】また、相対形状から推定される輝度をIm
(X,Y)とし、その周辺輝度をIm (x,y)とする
と、輝度Im (X,Y)をその周辺の輝度の平均で正規
化した値Im ′(X,Y)は、In addition, the brightness estimated from the relative shape is Im
Assuming that (X, Y) and the peripheral brightness thereof be Im (x, y), a value Im '(X, Y) obtained by normalizing the brightness Im (X, Y) by the average of the peripheral brightness is
【数63】 となる。[Equation 63] Becomes
【0197】式(43),(63)より、Im ′(X,
Y)は、From equations (43) and (63), Im '(X,
Y) is
【数64】 となる。[Equation 64] Becomes
【0198】式(62),(64)より、画像内の輝度
の値がノイズ等の影響を受けなければ、I′(X,Y)
とIm ′(X,Y)の値は等しくなる。From equations (62) and (64), if the luminance value in the image is not affected by noise, I '(X, Y)
And Im '(X, Y) are equal.
【0199】実際には、ノイズ等の誤差によりI′
(X,Y)とIm ′(X,Y)の値は等しくならないた
め、最小二乗法により、Actually, I'due to an error such as noise.
Since the values of (X, Y) and Im '(X, Y) are not equal, the least squares method
【数65】 を満たすような倍率kを複数の正規化された輝度から推
定する。[Equation 65] A scaling factor k that satisfies the above is estimated from a plurality of normalized luminances.
【0200】本実施形態によれば、画像及び相対形状か
ら得られる輝度をその周辺の輝度の平均で正規化するこ
とにより、ノイズ等の影響を抑制することができるた
め、対象物体までの絶対的な距離を正確に推定できる。
よって第4の実施形態と同様に、特別な装置を付加した
り、装置の構造を変更することなく対象物体の絶対的な
形状を正確に推定することが可能となる。According to this embodiment, the influence of noise or the like can be suppressed by normalizing the luminance obtained from the image and the relative shape with the average of the luminance of the surroundings. Accurate distance can be estimated.
Therefore, as in the fourth embodiment, it is possible to accurately estimate the absolute shape of the target object without adding a special device or changing the structure of the device.
【0201】次に図33を参照して本発明の第8の実施
形態を説明する。Next, an eighth embodiment of the present invention will be described with reference to FIG.
【0202】第8の実施形態は第4の実施形態の距離推
定手段の機能構成を変更した例である。The eighth embodiment is an example in which the functional configuration of the distance estimating means of the fourth embodiment is changed.
【0203】第8の実施形態の距離推定手段は、対象物
体の表面の法線ベクトルを推定する法線ベクトル推定手
段と、撮像手段の視点から光源へのベクトルを推定する
光源位置ベクトル推定手段と、前記相対形状推定手段で
推定された撮像手段の視点から対象物体上の一点までの
相対的な距離と前記法線ベクトル及び前記光源位置ベク
トルの関係から対象物体上の一点の輝度を推定する輝度
推定手段と、対象物体上の複数の点の輝度の比率を前記
輝度推定手段と実際の画像から求め、輝度の比率に関す
る複数の方程式を算出する方程式算出手段と、前記輝度
の比率に関する複数の方程式より撮像手段から対象物体
上の点へのベクトルの倍率を推定して対象物体までの絶
対的な距離を推定する絶対距離推定手段と、を有して構
成される。The distance estimating means of the eighth embodiment includes a normal vector estimating means for estimating a normal vector of the surface of the target object, and a light source position vector estimating means for estimating a vector from the viewpoint of the image pickup means to the light source. Luminance for estimating the luminance of a point on the target object from the relationship between the relative distance from the viewpoint of the image pickup means estimated by the relative shape estimation means to a point on the target object and the normal vector and the light source position vector Estimating means, equation calculating means for obtaining the ratio of luminance of a plurality of points on the target object from the luminance estimating means and an actual image, and calculating a plurality of equations relating to the luminance ratio, and a plurality of equations relating to the luminance ratio. And an absolute distance estimating means for estimating the absolute distance to the target object by estimating the magnification of the vector from the image pickup means to the point on the target object.
【0204】第4の実施形態では、図25に示したよう
に、位置の異なる2点を抽出してその2点の輝度の比率
と別の2組の点の輝度の比率とから対象物体までの絶対
的な距離を推定した。In the fourth embodiment, as shown in FIG. 25, two points at different positions are extracted, and the ratio of the brightness of the two points and the ratio of the brightness of another two sets of points are calculated from the target object. Estimated the absolute distance of.
【0205】本実施形態では、対象物体に照射される光
量を一定にし、撮像手段の撮像位置を変えることで照明
条件を変化させた場合、対象物体上の拡散反射率は変化
しないと考える。この条件において、対象物体上の一点
を異なる二つの位置から撮像した画像の輝度の値と、そ
の二つの画像を撮像した位置を基準に推定される相対的
な距離から得られる輝度の値とを第4の実施形態におけ
る距離推定方法に適用し、対象物体までの絶対的な距離
を推定する。In the present embodiment, it is considered that the diffuse reflectance on the target object does not change when the illumination condition is changed by changing the image pickup position of the image pickup means while keeping the amount of light applied to the target object constant. Under this condition, a brightness value of an image obtained by capturing one point on the target object from two different positions and a brightness value obtained from a relative distance estimated based on the positions at which the two images are captured are It is applied to the distance estimation method in the fourth embodiment to estimate the absolute distance to the target object.
【0206】図33に示すように、前記相対形状推定手
段により画像f0 と画像fi を基準に推定される相対的
な距離を用いて、撮像手段の視点Oから対象物体上の点
Pへの位置ベクトルを求める。画像f0 を撮像した位置
を基準として得られる視点Oから対象物体上の点Pへの
位置ベクトルM01は、式(10),(11)より、As shown in FIG. 33, using the relative distance estimated by the relative shape estimation means with reference to the image f0 and the image fi, the position from the viewpoint O of the image pickup means to the point P on the target object is detected. Find the vector. The position vector M01 from the viewpoint O to the point P on the target object, which is obtained based on the position where the image f0 is captured, is given by the following equations (10) and (11).
【数66】 となり、画像fi を基準としたときの視点Oから対象物
体上の点Pへの位置ベクトルM11は、[Equation 66] And the position vector M11 from the viewpoint O to the point P on the target object when the image fi is used as a reference is
【数67】 となる。[Equation 67] Becomes
【0207】また、前記相対形状推定手段により画像f
0 と画像fi+a を基準に推定される相対的な距離を用い
て、画像f0 を撮像した位置を基準として得られる撮像
手段の視点Oから対象物体上の点Pへの位置ベクトルM
02は、式(10),(11)より、Further, the image f
0 and the relative distance estimated with reference to the image fi + a, the position vector M from the viewpoint O of the image capturing means to the point P on the target object obtained with the position where the image f0 is captured as a reference.
02 is from equations (10) and (11)
【数68】 となり、画像fi+a を基準としたときの視点Oから対象
物体上の点Pへの位置ベクトルM22は、[Equation 68] Therefore, the position vector M22 from the viewpoint O to the point P on the target object when the image fi + a is used as a reference is
【数69】 となる。[Equation 69] Becomes
【0208】ここで、位置ベクトルM01とM02及び単位
ベクトルm1 とm2 は等しいことから、倍率k2 と位置
ベクトルM22は、Since the position vectors M01 and M02 and the unit vectors m1 and m2 are equal, the magnification k2 and the position vector M22 are
【数70】 となる。[Equation 70] Becomes
【0209】また、式(43)より各位置ベクトルから
推定される点Pの輝度の値は次のようになる。Further, the value of the brightness of the point P estimated from each position vector from the equation (43) is as follows.
【0210】[0210]
【数71】 また、撮像された画像f0 ,fi ,fi+a から得られる
輝度をそれぞれI0 ,Ii ,Ii+a とすると、輝度の比
率は式(44)より、[Equation 71] Further, assuming that the brightnesses obtained from the picked-up images f0, fi, fi + a are I0, Ii, Ii + a, respectively, the brightness ratio is given by the equation (44).
【数72】 [Equation 72]
【数73】 となる。[Equation 73] Becomes
【0211】前記式(66),(67),(70)の位
置ベクトルM01,M11,M22を式(72),(73)に
代入すると、Substituting the position vectors M01, M11, M22 of the equations (66), (67) and (70) into the equations (72) and (73),
【数74】 [Equation 74]
【数75】 となり、一つの倍率k1 が未知数となる二つの方程式が
得られる。この二つの方程式を解くことにより倍率k1
が求められる。[Equation 75] Thus, two equations are obtained in which one scaling factor k1 is an unknown number. By solving these two equations, the scaling factor k1
Is required.
【0212】また、第4の実施形態でも述べたように、
画像内の複数の点から倍率を推定することも可能であ
る。この場合、対象物体上の複数の点(例えばM+1個
の点)と二つの基準となる画像(例えば画像f0 と画像
fi )から得られる輝度の比率に最小二乗法を適用する
と、Further, as described in the fourth embodiment,
It is also possible to estimate the magnification from multiple points in the image. In this case, when the least squares method is applied to the ratio of luminance obtained from a plurality of points (for example, M + 1 points) on the target object and two reference images (for example, image f0 and image fi),
【数76】 が得られ、複数の点に対して式(76)を満足するよう
な倍率k1 を求めれば良い。[Equation 76] Then, the magnification k1 that satisfies the formula (76) is obtained for a plurality of points.
【0213】さらに、複数の画像の同一点から倍率を推
定することもできる。この場合、対象物体上の一点と複
数の基準となる画像(例えば画像f0 から画像fM )か
ら得られる輝度の比率に最小二乗法を適用すると、Further, the magnification can be estimated from the same point on a plurality of images. In this case, if the least squares method is applied to the ratio of the luminance obtained from one point on the target object and a plurality of reference images (for example, image f0 to image fM),
【数77】 が得られ、複数の画像の同一点に対して式(77)を満
足するような倍率k1 を求めれば良い。[Equation 77] Then, the magnification k1 that satisfies Expression (77) is obtained for the same point on a plurality of images.
【0214】第4の実施形態で仮定した拡散反射率は、
対象物体の位置によって異なるが、対象物体に照射され
る光量を一定にし、撮像手段の撮像位置を変えて対象物
体を撮像したときには、対象物体上の拡散反射率は変化
しない。The diffuse reflectance assumed in the fourth embodiment is
Although it depends on the position of the target object, when the target object is imaged by changing the image pickup position of the image pickup means while keeping the amount of light applied to the target object constant, the diffuse reflectance on the target object does not change.
【0215】したがって、本実施形態ではこの点を考慮
して、対象物体上の一点を異なる二つの位置から撮像し
た画像の輝度と、その二つの画像が撮像された位置を基
準に推定される相対的な距離を使って求められる輝度と
を用いることにより、対象物体までの絶対的な距離を正
確に推定できる。よって第4の実施形態と同様に、特別
な装置を付加したり、装置の構造を変更することなく対
象物体の絶対的な形状を正確に推定することが可能とな
る。Therefore, in the present embodiment, in consideration of this point, the brightness of the image obtained by picking up one point on the target object from two different positions, and the relative estimated based on the positions at which the two images were picked up. The absolute distance to the target object can be accurately estimated by using the brightness obtained by using the specific distance. Therefore, as in the fourth embodiment, it is possible to accurately estimate the absolute shape of the target object without adding a special device or changing the structure of the device.
【0216】次に図34を参照して本発明の第9の実施
形態を説明する。Next, a ninth embodiment of the present invention will be described with reference to FIG.
【0217】第9の実施形態は、第8の実施形態を光源
の照射口を複数有する内視鏡と、それぞれの照射口から
照射される光を交互に点灯させる光源装置とを有する構
成に適用した例である。The ninth embodiment applies the eighth embodiment to a configuration having an endoscope having a plurality of light source irradiation ports and a light source device for alternately turning on the light emitted from each irradiation port. It is an example.
【0218】第8の実施形態では、撮像手段の撮像位置
を変えることで照明条件を変化させたが、本実施形態で
は二つの照射口から交互に光を照射することにより、照
明条件を変化させ、対象物体までの絶対的な距離を推定
する。In the eighth embodiment, the illumination condition is changed by changing the image pickup position of the image pickup means, but in the present embodiment, the illumination condition is changed by alternately irradiating light from two irradiation ports. , Estimate the absolute distance to the target object.
【0219】図34に示すように、内視鏡の先端部には
照明光を照射する二つの照射口A,Bが設けられてい
る。対象物体上において内視鏡の先端を移動させ、二つ
の照射口A,Bから交互に照明光を照射すると同時に、
各照明光で照射された対象物体の画像を撮像して記憶す
る。As shown in FIG. 34, two irradiation ports A and B for irradiating illumination light are provided at the tip of the endoscope. At the same time as moving the tip of the endoscope on the target object and alternately irradiating the illumination light from the two irradiation ports A and B,
An image of the target object illuminated by each illumination light is captured and stored.
【0220】そして、照射口Aで照射された光によって
得られた時系列画像fAi(i=0,1,…,n)から撮
像手段と対象物体との相対的な距離を推定する。Then, the relative distance between the image pickup means and the target object is estimated from the time series image fAi (i = 0, 1, ..., N) obtained by the light emitted from the irradiation port A.
【0221】前記相対形状推定手段により、画像fA0と
画像fAiを基準に、画像fA0を撮像したときの撮像手段
の位置を基準として得られる撮像手段の視点Oから対象
物体上の点Pへの位置ベクトルM0 を、The position from the viewpoint O of the image pickup means to the point P on the target object obtained by the relative shape estimation means with reference to the position of the image pickup means when the image fA0 is picked up with reference to the image fA0 and the image fAi. The vector M0 is
【数78】 とし、画像fi を基準としたときの視点Oから対象物体
上の点Pへの位置ベクトルMi を、[Equation 78] And the position vector Mi from the viewpoint O to the point P on the target object when the image fi is used as a reference,
【数79】 とする。[Expression 79] And
【0222】また、式(43)より各位置ベクトルから
推定される点Pの照射口Aの光による輝度の値は、Further, the value of the brightness due to the light of the irradiation port A at the point P estimated from each position vector from the equation (43) is
【数80】 となり、照射口Bの光による輝度の値は、[Equation 80] And the value of the brightness due to the light from the irradiation port B is
【数81】 となる。[Equation 81] Becomes
【0223】また、実際の撮像された画像fA0,fAi,
fBiから得られる輝度をそれぞれI0 ,Ii ,Ii ′と
おくと、輝度の比率は式(44)より、Also, the actual picked-up images fA0, fAi,
Assuming that the brightness obtained from fBi is I0, Ii, and Ii ', respectively, the ratio of the brightness can be calculated from equation (44) as follows:
【数82】 (Equation 82)
【数83】 となる。[Equation 83] Becomes
【0224】前記式(78),(79)の位置ベクトル
M0 ,Mi を式(82),(83)に代入すると、Substituting the position vectors M0 and Mi of the equations (78) and (79) into the equations (82) and (83),
【数84】 [Equation 84]
【数85】 となり、一つの倍率kが未知数となる二つの方程式が得
られる。この二つの方程式を解くことにより倍率kが求
められる。[Equation 85] Thus, two equations are obtained in which one scaling factor k is an unknown number. The magnification k is obtained by solving these two equations.
【0225】本実施形態によれば、従来からの内視鏡シ
ステムの構成に簡単な変更を加えることにより、対象物
体の絶対的な形状を推定することができる。また、二つ
の照射口から交互に光を照射することにより、照明条件
を変更するようにしているため、撮像手段の撮像位置を
変えないで正確な絶対的な距離の推定が可能となる。According to this embodiment, the absolute shape of the target object can be estimated by making a simple change to the configuration of the conventional endoscope system. Moreover, since the illumination conditions are changed by alternately irradiating light from the two irradiation ports, it is possible to accurately estimate the absolute distance without changing the image pickup position of the image pickup means.
【0226】次に図35及び図36を参照して本発明の
第10の実施形態を説明する。Next, a tenth embodiment of the present invention will be described with reference to FIGS.
【0227】第10の実施形態では、前記相対形状推定
手段における位置検出手段の構成例について説明する。In the tenth embodiment, a configuration example of the position detecting means in the relative shape estimating means will be described.
【0228】本実施形態の位置検出手段は、時系列的に
送られてくる画像を取り込むための画像取り込み手段
と、前記画像取り込み手段から取り込まれた画像の歪曲
収差を補正する歪曲収差補正手段と、前記画像取り込み
手段で取り込まれた画像の特定の領域の周波数特性のパ
ワーを算出するパワー算出手段と、画像内の同一の点の
検出を行う同一点検出手段と、前記同一点検出手段の結
果から同一点の移動量を算出する移動量算出手段と、前
記移動量算出手段に取り込まれる画像の同一点の位置を
予測する位置予測手段と、前記各画像の周波数特性のパ
ワーを比較するパワー比較手段と、有して構成される。The position detecting means of this embodiment includes an image capturing means for capturing images sent in time series, and a distortion aberration correcting means for correcting the distortion aberration of the image captured by the image capturing means. A power calculation means for calculating the power of the frequency characteristic of a specific area of the image captured by the image capturing means, a same point detection means for detecting the same point in the image, and a result of the same point detection means From the same point, a moving amount calculating means for calculating the moving amount of the same point, a position predicting means for predicting the position of the same point of the images captured by the moving amount calculating means, and a power comparison for comparing the power of the frequency characteristics of the respective images Means and having.
【0229】本実施形態では、第1の実施形態と同様
に、図36の(a)に示すように、撮像手段により同一
の対象物に対して複数の位置から撮像し、撮像された複
数の画像を時系列的に画像処理装置3に取り込む。In the present embodiment, as in the first embodiment, as shown in FIG. 36A, the same object is imaged from a plurality of positions by the image pickup means, and a plurality of imaged images are picked up. Images are taken into the image processing device 3 in time series.
【0230】図35は位置検出手段によって時系列的に
入力される複数の画像の同一点の検出を行う過程を示し
たフローチャートである。FIG. 35 is a flow chart showing a process of detecting the same point in a plurality of images which are time-sequentially input by the position detecting means.
【0231】キーボード等の情報入力装置41により、
内視鏡の操作者が病変部等の形状を観察したいことを指
示すると、画像処理装置3内のCPU40に指示が伝達
され、CPU40において構成される画像処理手段47
により処理が開始される。By the information input device 41 such as a keyboard,
When the operator of the endoscope gives an instruction to observe the shape of a lesion or the like, the instruction is transmitted to the CPU 40 in the image processing apparatus 3 and the image processing means 47 configured in the CPU 40.
The process is started by.
【0232】まずステップS11で、時系列的に入力さ
れた初期画像f0 が取り込まれ、ステップS12で歪曲
収差が補正される。そしてステップS13において、i
=0であるか、すなわち初期画像f0 か否かの判断を行
い、初期画像f0 の場合はステップS14へ、それ以外
の画像の場合はステップS17に進む。First, in step S11, the initial image f0 input in time series is taken in, and in step S12, the distortion aberration is corrected. Then, in step S13, i
= 0, that is, it is determined whether the image is the initial image f0. If the image is the initial image f0, the process proceeds to step S14. If the image is any other image, the process proceeds to step S17.
【0233】ステップS14では、図36の(b)に示
すように、初期画像f0 について画像間の同一点を検出
するために複数の点Pab(a=0,1,…,q、b=
0,1,…,r)を設定する。そしてステップS15
で、図36の(c)に示すように、ステップS14で設
定された点Pabを含む適当な領域S0ab を設定し、図3
6の(d)に示すように、フーリエ変換を行って領域S
0ab の部分画像の周波数特性を求め、この部分画像につ
いての適当な周波数領域(λ0 〜λ1 )のパワーの合計
Ps0ab(Psum_0 )を算出する。At step S14, as shown in FIG. 36B, a plurality of points Pab (a = 0, 1, ..., Q, b =) are detected in order to detect the same point between images in the initial image f0.
0, 1, ..., R) are set. And step S15
Then, as shown in (c) of FIG. 36, an appropriate area S0ab including the point Pab set in step S14 is set, and FIG.
As shown in (d) of FIG.
The frequency characteristic of the partial image of 0ab is obtained, and the total power Ps0ab (Psum_0) of the appropriate frequency region (λ0 to λ1) for this partial image is calculated.
【0234】ステップS15で得られたPs0abは、ステ
ップS20へ送られる。そして、ステップS16におい
てiを一つ増加してステップS11へ戻る。The Ps0ab obtained in step S15 is sent to step S20. Then, in step S16, i is incremented by 1, and the process returns to step S11.
【0235】再びステップS11で、次の画像f1 を取
り込み、ステップS12で歪曲収差の補正を行った後、
ステップS13からステップS17に進み、i=1であ
るか、すなわち1番目に入力された画像か否かを判断す
る。ステップS17で1番目の画像f1 と判断された場
合は、ステップS21において画像f0 で設定された複
数の点Pabに対する同一点の検出を行う。In step S11, the next image f1 is fetched again, and the distortion is corrected in step S12.
The process proceeds from step S13 to step S17, and it is determined whether i = 1, that is, whether the image is the first input image. When it is determined in step S17 that the image is the first image f1, the same point is detected with respect to the plurality of points Pab set in the image f0 in step S21.
【0236】そしてステップS22で、ステップS21
で検出された同一点の位置から初期画像f0 と1番目の
画像f1 間での各点の移動量M1 を算出し、移動量M1
をステップS18へ送った後、ステップS23で前回ま
でに連続して焦点ズレの画像が何回発生したかを示すカ
ウント値であるCを初期化してC=0とする。Then, in step S22, step S21
The moving amount M1 of each point between the initial image f0 and the first image f1 is calculated from the position of the same point detected in
Is sent to step S18, and in step S23, C, which is a count value indicating how many times the images with defocus have continuously occurred until the last time, is initialized to C = 0.
【0237】その後ステップS24で、i=nである
か、すなわち最終画像fn であるか否かを判別し、最終
画像でない場合はステップS16でiを一つ増加してス
テップS11に戻る。After that, in step S24, it is determined whether i = n, that is, whether the final image is fn. If it is not the final image, i is incremented by 1 in step S16 and the process returns to step S11.
【0238】一方、ステップS17で1番目の画像f1
でないと判断された場合、ステップS18において、i
番目の画像fi についてステップS22で得られた移動
量Mi-1-c とステップS25の結果である前回までに連
続して焦点ズレの画像が何回発生したかをカウントした
値Cとから、ステップS14で設定された点Pabのi番
目の画像における同一点の位置を予測する。On the other hand, in step S17, the first image f1
If it is determined that it is not, in step S18, i
From the movement amount Mi-1-c obtained in step S22 for the th image fi and the value C obtained by counting the number of consecutively defocused images generated as a result of step S25 up to the previous time, The position of the same point in the i-th image of the point Pab set in S14 is predicted.
【0239】そしてステップS19では、ステップS1
8で予測された同一点の位置を含み、初期画像f0 で設
定した領域S0ab と同等の領域の周波数特性と、初期画
像f0 で設定した周波数領域と同等の領域のパワーの合
計Psiab(Psum_i )を算出する。Then, in step S19, step S1
The total power Psiab (Psum_i) of the region including the position of the same point predicted in 8 and the frequency characteristic of the region equivalent to the region S0ab set in the initial image f0 and the region equivalent to the frequency region set in the initial image f0. calculate.
【0240】次いでステップS20で、ステップS15
で得られたパワーPs0abとステップS19で得られたパ
ワーPsiabとを比較し、i番目の画像のパワーが初期画
像のパワー以上であれば、焦点ズレがないと判断して、
ステップS21において画像f0 で設定された複数の点
Pabに対する同一点の検出を行う。また、ステップS2
0でi番目の画像のパワーが初期画像のパワーより小さ
ければ、焦点ズレが発生したと判断し、ステップS25
でCを一つ増加させ、ステップS26でiを一つ増加し
てステップS11に戻る。Then, in step S20, step S15
The power Ps0ab obtained in step S19 is compared with the power Psiab obtained in step S19, and if the power of the i-th image is equal to or higher than the power of the initial image, it is determined that there is no defocus,
In step S21, the same point is detected for the plurality of points Pab set in the image f0. Also, step S2
If the power of the i-th image is 0 and smaller than that of the initial image, it is determined that defocusing has occurred, and step S25
C is incremented by one, i is incremented by one in step S26, and the process returns to step S11.
【0241】以上の処理を繰り返してn番目までの画像
fn の処理が行われ、ステップS24において最終画像
fn であると判断されると、この処理を終了する。The above processing is repeated until the nth image fn is processed, and when it is determined in step S24 that it is the final image fn, this processing is ended.
【0242】ここで、初期画像f0 とi番目の画像fi
で求められる周波数特性の適当な周波数領域のパワー
は、それぞれ、Here, the initial image f0 and the i-th image fi
The power in the appropriate frequency range of the frequency characteristics obtained by
【数86】 として求められる。[Equation 86] Is required.
【0243】また、i番目の画像における同一点の位置
の予測は、初期画像に対するi番目の画像の移動量をM
i とすると、i−1番目の画像までに焦点ズレが発生し
ていない場合は、For the prediction of the position of the same point in the i-th image, the movement amount of the i-th image with respect to the initial image is M
Let i be the case where no focus shift has occurred up to the i-1th image.
【数87】 となる。また、i−1番目の画像が焦点ズレを発生して
同一点の検出が行われなかった場合は、i番目の画像に
おける同一点の予測位置はi−2番目までの移動量を用
いて、[Equation 87] Becomes If the i−1th image is out of focus and the same point is not detected, the predicted position of the same point in the ith image is the movement amount up to the i−2nd,
【数88】 として求めることができる。[Equation 88] Can be obtained as
【0244】また、ステップS20において初期画像f
0 とi番目の画像fi で求められる周波数特性の適当な
周波数領域のパワーをそれぞれ比較したが、Also, in step S20, the initial image f
The powers in the appropriate frequency regions of the frequency characteristics obtained from the 0th and the i-th image fi are compared.
【数89】 Psum_0 −α≦Psum_i ≦Psum_0 +α …(89) のようにi番目の画像fi で求められるパワーの合計を
初期画像f0 で求められるパワーの合計に適当な幅をも
たせて比較しても良い。Psum_0 −α ≦ Psum_i ≦ Psum_0 + α (89) As shown in (89), the total power obtained in the i-th image fi is compared with the total power obtained in the initial image f0 with an appropriate width. Is also good.
【0245】生体観察用に用いる内視鏡は、一般的に焦
点深度の浅い光学系によって明瞭な角、輪郭、テクスチ
ャを伴わない粘膜画像を主に観察する。このため、それ
らの画像を時系列的に得た場合、焦点の合っていない画
像が含まれる可能性が大きい。このような時系列画像に
対して、前述した特開平6−7289号公報のようにブ
ロックマッチングを用いた場合、正確な対応点の追跡を
行うことができなくなるおそれがある。An endoscope used for observing a living body generally observes a mucous membrane image without clear corners, contours, and textures by an optical system having a shallow depth of focus. For this reason, when those images are obtained in time series, there is a high possibility that images out of focus are included. When block matching is used for such a time-series image as in the above-mentioned Japanese Patent Laid-Open No. 6-7289, there is a possibility that accurate tracking of corresponding points cannot be performed.
【0246】これに対し、上記のように位置検出手段に
おいて同一点の検出を行うことで、本実施形態では、時
系列的に取り込まれる複数の画像に対して焦点ズレを検
出し、焦点ズレの発生していない画像に対して同一点の
検出を行うことによって、内視鏡のような焦点ズレを含
む画像に対しても正確に対応点の追跡が行える。このた
め、撮像手段を移動させて時系列的に対象物体の複数の
画像を撮像し、それらの画像間の同一点を検出する場合
に、焦点の合っていない粘膜画像等が撮像された場合で
も正確に同一点の検出を行うことが可能となる。On the other hand, by detecting the same point by the position detecting means as described above, in the present embodiment, the focus shift is detected for a plurality of images captured in time series, and the focus shift is detected. By detecting the same point in an image that has not occurred, it is possible to accurately track the corresponding point even in an image such as an endoscope that includes defocus. Therefore, when the imaging means is moved to capture a plurality of images of the target object in time series and the same point between the images is detected, even when a mucosal image that is out of focus is captured. It is possible to accurately detect the same point.
【0247】次に図37及び図38を参照して本発明の
第11の実施形態を説明する。Next, an eleventh embodiment of the present invention will be described with reference to FIGS. 37 and 38.
【0248】第11の実施形態は、第10の実施形態の
位置検出手段における機能構成を変更し、同一点を検出
する手順にテンプレート画像のサイズを変更するステッ
プを加えた例である。The eleventh embodiment is an example in which the functional configuration of the position detecting means of the tenth embodiment is changed and a step of changing the size of the template image is added to the procedure for detecting the same point.
【0249】図37は位置検出手段によって時系列的に
入力される複数の画像の同一点の検出を行う過程を示し
たフローチャートである。図37のステップS31〜4
3における初期画像f0 及び1番目の画像f1 を処理す
るまでは、第10の実施形態のステップS11〜24と
同様であるため説明を省略する。FIG. 37 is a flow chart showing the process of detecting the same point in a plurality of images which are time-sequentially input by the position detecting means. Steps S31 to S4 of FIG.
The processing up to the processing of the initial image f0 and the first image f1 in Step 3 is the same as steps S11 to S24 of the tenth embodiment, and a description thereof will be omitted.
【0250】2番目以降の画像fi について、まずステ
ップS31で画像が取り込まれると、ステップS32で
歪曲収差が補正され、ステップS38に進む。When the images of the second and subsequent images fi are first captured in step S31, the distortion aberration is corrected in step S32, and the flow advances to step S38.
【0251】ステップS38において、画像fi につい
てステップS42で得られた移動量Mi-1-c または後述
するステップS46で算出された平均移動量から、ステ
ップS40の結果に応じてステップS34で設定された
点Pabのi番目の画像における同一点の位置を予測す
る。すなわち、前回のステップS40においてi番目の
画像のパワーが初期画像のパワー以上のときは、ステッ
プS42で得られた移動量を、ステップS40において
i番目の画像のパワーが初期画像のパワーより小さいと
きはステップS46で得られた平均移動量を用いて同一
点の位置を予測する。In step S38, the moving amount Mi-1-c obtained in step S42 for the image fi or the average moving amount calculated in step S46, which will be described later, is set in step S34 according to the result of step S40. The position of the same point in the i-th image of the point Pab is predicted. That is, when the power of the i-th image is equal to or higher than the power of the initial image in the previous step S40, the movement amount obtained in step S42 is used when the power of the i-th image is smaller than the power of the initial image in step S40. Predicts the position of the same point using the average movement amount obtained in step S46.
【0252】そしてステップS39では、ステップS3
8で予測された同一点の位置を含み、初期画像f0 で設
定した領域S0ab と同等の領域の周波数特性と、初期画
像f0 で設定した周波数領域と同等の領域のパワーの合
計Psum_i を算出する。Then, in step S39, step S3
The sum Psum_i of the frequency characteristics of the region including the position of the same point predicted in 8 and equivalent to the region S0ab set in the initial image f0 and the power of the region equivalent to the frequency region set in the initial image f0 is calculated.
【0253】次いでステップS40で、ステップS35
で得られたパワーPsum_0 とステップS39で得られた
パワーPsum_i とを比較し、i番目の画像のパワーが初
期画像のパワー以上であれば、焦点ズレがないと判断し
て、ステップS41において画像f0 で設定された複数
の点Pabに対する同一点の検出を行う。また、ステップ
S40でi番目の画像のパワーが初期画像のパワーより
小さければ、焦点ズレが発生したと判断し、ステップS
44へ進む。Then, in step S40, step S35
The power Psum_0 obtained in step S39 is compared with the power Psum_i obtained in step S39. If the power of the i-th image is equal to or higher than the power of the initial image, it is determined that there is no focus shift, and the image f0 is obtained in step S41. The same point is detected for the plurality of points Pab set in. If the power of the i-th image is smaller than that of the initial image in step S40, it is determined that defocusing has occurred, and step S40 is performed.
Proceed to 44.
【0254】ステップS44では、テンプレート画像の
サイズとステップS34で設定された点Pabの数とを減
らし、その後ステップS45で、設定されたテンプレー
ト画像のサイズと画像内の点に関して同一点の検出を行
う。例えば、テンプレート画像のサイズを大きくし、画
像内の点の数を半分に減らす。In step S44, the size of the template image and the number of points Pab set in step S34 are reduced, and in step S45, the same point is detected with respect to the set template image size and points in the image. . For example, increase the size of the template image and reduce the number of points in the image by half.
【0255】ステップS46では、現在まで連続して焦
点ズレが発生した画像間の平均移動量として、ステップ
S45で検出された同一点の位置から移動量を算出し、
それぞれの点の移動量の平均値を求める。In step S46, the moving amount is calculated from the position of the same point detected in step S45 as the average moving amount between images in which defocuses have occurred continuously until the present,
The average value of the movement amount of each point is calculated.
【0256】その後、ステップS47でiを一つ増加し
てステップS31に戻る。Thereafter, i is incremented by 1 in step S47 and the process returns to step S31.
【0257】以上の処理を繰り返してn番目までの画像
fn の処理が行われ、ステップS43において最終画像
fn であると判断されると、この処理を終了する。The above processing is repeated to process the nth image fn, and when it is determined in step S43 that the image is the final image fn, this processing ends.
【0258】観察点が焦点距離から離れるにしたがっ
て、得られた画像の高周波数領域におけるパワーが小さ
くなる。このため、テンプレートマッチングにおいて高
周波数領域のパワーが小さくなるにつれて、複数の画像
間の同一点の検出の精度が悪くなる。As the observation point moves away from the focal length, the power of the obtained image in the high frequency region becomes smaller. For this reason, in template matching, as the power in the high frequency region becomes smaller, the accuracy of detecting the same point between a plurality of images becomes worse.
【0259】そこで本実施形態では、周波数特性のパワ
ーに応じてテンプレート画像のサイズを変更することに
より、同一点の検出の精度の悪化を防止する。Therefore, in the present embodiment, the size of the template image is changed according to the power of the frequency characteristic to prevent the accuracy of detecting the same point from being deteriorated.
【0260】図38は焦点ズレに関する量とテンプレー
ト画像のサイズの大きさとの関係を示した図である。こ
こでは、焦点ズレを表す量として、ステップS35で得
られた初期画像のパワーPsum_0 とステップS39で得
られたi番目の画像のパワーPsum_i との比率Pratio
を用いる。FIG. 38 is a diagram showing the relationship between the amount of defocus and the size of the template image. Here, the ratio Pratio between the power Psum_0 of the initial image obtained in step S35 and the power Psum_i of the i-th image obtained in step S39 is used as an amount representing the focus shift.
Is used.
【0261】[0261]
【数90】 特定の大きさの焦点ズレまでは、ステップS35で周波
数特性のパワーを算出したときのテンプレート画像のサ
イズTs0を用いる。これより焦点ズレが大きくなった場
合は、初期画像のパワーPsum_0 とi番目の画像のパワ
ーPsum_i との比率Pratio に応じて、Pratio が大き
くなるにしたがってリニアに大きくなるようテンプレー
ト画像のサイズをTsiに変更する。[Equation 90] The size Ts0 of the template image used when the power of the frequency characteristic is calculated in step S35 is used up to the defocus of a specific size. If the focus shift becomes larger than this, the size of the template image is set to Tsi so as to increase linearly as Pratio increases in accordance with the ratio Pratio between the power Psum_0 of the initial image and the power Psum_i of the i-th image. change.
【0262】[0262]
【数91】 Tsi=Pratio *Ts0 …(91) また、前記パワーの比率に適当な重みwを与えてテンプ
レート画像のサイズを決定しても良い。Tsi = Pratio * Ts0 (91) Alternatively, the size of the template image may be determined by giving an appropriate weight w to the power ratio.
【0263】[0263]
【数92】 Tsi=w*Pratio *Ts0 …(92) また、第10の実施形態と同様に、ステップS40にお
いて初期画像f0 とi番目の画像fi で求められる周波
数特性の適当な周波数領域のパワーをそれぞれ比較した
が、Tsi = w * Pratio * Ts0 (92) Further, similar to the tenth embodiment, the power in the appropriate frequency domain of the frequency characteristics obtained in the initial image f0 and the i-th image fi in step S40. I compared each
【数93】 Psum_0 −α≦Psum_i ≦Psum_0 +α …(93) のようにi番目の画像fi で求められるパワーの合計を
初期画像f0 で求められるパワーの合計に適当な幅をも
たせて比較しても良い。(93) Psum_0−α ≦ Psum_i ≦ Psum_0 + α (93) As shown in (93), the total power obtained in the i-th image fi is compared with the total power obtained in the initial image f0 with an appropriate width. Is also good.
【0264】以上のように、位置検出手段においてテン
プレートマッチングにより同一点の検出を行うことで、
本実施形態では、時系列的に取り込まれる複数の画像に
対して焦点ズレを検出し、焦点ズレが大きい場合はテン
プレート画像のサイズを変更してテンプレートマッチン
グを行い、平均的な移動量を算出することによって、内
視鏡のような焦点ズレを含む画像に対しても確実に同一
点の位置を予測することができる。As described above, by detecting the same point by template matching in the position detecting means,
In this embodiment, a focus shift is detected for a plurality of images captured in time series, and if the focus shift is large, the template image size is changed to perform template matching, and an average movement amount is calculated. As a result, it is possible to reliably predict the position of the same point even for an image such as an endoscope that includes defocus.
【0265】また、第10の実施形態では複数の画像に
おいて焦点ズレが発生した場合や内視鏡の先端の動きが
大きい場合には、同一点の位置の予測に誤差が発生しや
すくなる。しかし、本実施形態によれば、焦点ズレを発
生した画像から同一点の位置を予測することができるの
で、前記のような不具合を防止でき、焦点ズレが発生し
た場合でも常に正確に同一点の検出を行うことが可能と
なる。Further, in the tenth embodiment, if a focus shift occurs in a plurality of images or the movement of the tip of the endoscope is large, an error is likely to occur in the prediction of the position of the same point. However, according to the present embodiment, it is possible to predict the position of the same point from the image in which the defocus occurs, so that it is possible to prevent the inconvenience as described above, and even when the defocus occurs, the position of the same point is always accurate. It becomes possible to perform detection.
【0266】[付記] (1) 同一の対象物体に対して異なる位置より撮像す
る撮像手段を有する内視鏡と、前記撮像手段により撮像
された複数の画像から、前記対象物体の相対的な形状を
推定する相対形状推定手段と、前記撮像手段から前記対
象物体上の適当な位置までの距離を推定する距離推定手
段と、前記相対形状推定手段により推定された対象物体
の相対形状と前記距離推定手段により推定された対象物
体までの距離とから、前記対象物体の絶対的な形状を推
定する絶対形状推定手段と、を備えたことを特徴とする
内視鏡画像処理装置。[Appendix] (1) Relative shape of the target object from an endoscope having an image pickup means for picking up the same target object from different positions and a plurality of images picked up by the image pickup means , A distance estimation means for estimating a distance from the image pickup means to an appropriate position on the target object, a relative shape of the target object estimated by the relative shape estimation means, and the distance estimation An endoscopic image processing device, comprising: an absolute shape estimating means for estimating an absolute shape of the target object from the distance to the target object estimated by the means.
【0267】(2) 前記距離推定手段は、前記複数の
画像の同一な点における焦点ズレの大きさを算出する焦
点ズレ算出手段と、前記算出された焦点ズレが最小とな
る点を検出する最小点検出手段と、を有してなり、前記
検出された最小点の対象物体上から前記撮像手段までの
距離を前記撮像手段の焦点距離とすることで前記対象物
体までの距離を推定する付記1に記載の内視鏡画像処理
装置。(2) The distance estimating means calculates the magnitude of defocus at the same point in the plurality of images, and the minimum for detecting the point where the calculated defocus is minimum. Note 1. The point detection means is included, and the distance to the target object is estimated by setting the distance from the target object at the detected minimum point to the imaging means to the focal length of the imaging means. The endoscopic image processing device according to item 1.
【0268】(3) 前記距離推定手段は、前記画像内
に発生するハレーションの位置を検出するハレーション
検出手段と、前記対象物体上のハレーション位置におけ
る法線ベクトルを推定する法線ベクトル推定手段と、前
記撮像手段の視点から光源の出射位置までのベクトルを
推定する出射位置ベクトル推定手段と、前記撮像手段の
視点から対象物体上のハレーション位置までのベクトル
を推定するハレーション位置ベクトル推定手段と、を有
してなり、前記推定された3本のベクトルの関係より視
点から対象物体上のハレーション位置までの距離を推定
することで前記対象物体までの距離を推定する付記1に
記載の内視鏡画像処理装置。(3) The distance estimating means includes halation detecting means for detecting the position of halation occurring in the image, and normal vector estimating means for estimating a normal vector at the halation position on the target object. An emission position vector estimation means for estimating a vector from the viewpoint of the image pickup means to the emission position of the light source, and a halation position vector estimation means for estimating a vector from the viewpoint of the image pickup means to the halation position on the target object are provided. The endoscopic image processing according to Appendix 1, wherein the distance to the target object is estimated by estimating the distance from the viewpoint to the halation position on the target object based on the relationship between the estimated three vectors. apparatus.
【0269】付記1ないし3では、撮像手段により得ら
れる時系列的な画像より焦点距離からのズレやハレーシ
ョンを検出し、検出された特徴を利用して撮像手段から
対象物体上の適当な点の位置までの距離を推定すること
により、対象物体までの絶対的な距離が正確に推定され
る。In Supplementary Notes 1 to 3, deviations and halations from the focal length are detected from time-series images obtained by the image pickup means, and the detected features are used to detect an appropriate point on the target object from the image pickup means. By estimating the distance to the position, the absolute distance to the target object is accurately estimated.
【0270】(4) レーザ光を発生するレーザ光発生
手段と、前記レーザ光発生手段からのレーザ光を前記撮
像手段が設けられる内視鏡の先端まで導く導光手段と、
をさらに備えた付記1に記載の内視鏡画像処理装置。(4) Laser light generating means for generating laser light, and light guiding means for guiding the laser light from the laser light generating means to the tip of the endoscope in which the image pickup means is provided,
The endoscopic image processing apparatus according to appendix 1, further comprising:
【0271】(5) 前記距離推定手段は、前記撮像手
段の視点からレーザ光の出射位置までのベクトルを推定
する出射位置ベクトル推定手段と、前記撮像手段の視点
から対象物体上に照射されたレーザ光の照射位置までの
ベクトルを推定する照射位置ベクトル推定手段と、前記
推定された2本のベクトルからレーザ光の出射位置から
対象物体に照射された位置へのレーザ照射ベクトルを推
定するレーザ照射ベクトル推定手段と、前記撮像手段の
異なる位置から得られる2本のレーザ照射ベクトルの外
積が0になることから前記撮像手段から対象物体上のレ
ーザ光が照射された位置までの距離を推定する絶対距離
推定手段と、を有してなる付記4に記載の内視鏡画像処
理装置。(5) The distance estimation means estimates an emission position vector estimation means for estimating a vector from the viewpoint of the image pickup means to the emission position of the laser beam, and the laser irradiated on the target object from the viewpoint of the image pickup means. Irradiation position vector estimating means for estimating a vector up to the irradiation position of light, and a laser irradiation vector for estimating a laser irradiation vector from the emission position of the laser light to the position irradiated on the target object from the estimated two vectors. Since the outer product of the two laser irradiation vectors obtained from different positions of the estimation means and the image pickup means becomes 0, the absolute distance for estimating the distance from the image pickup means to the position on the target object where the laser light is emitted. The endoscopic image processing device according to attachment 4, further comprising: an estimating unit.
【0272】付記4及び5では、内視鏡先端からレーザ
光を照射し、レーザ光が照射された対象物体の画像を複
数撮像して、撮像手段から対象物体上の適当な点の位置
までの距離を推定することにより、対象物体までの絶対
的な距離が正確に推定される。In Supplementary Notes 4 and 5, laser light is irradiated from the tip of the endoscope, a plurality of images of the target object irradiated with the laser light are picked up, and the images from the image pickup means to an appropriate point position on the target object. By estimating the distance, the absolute distance to the target object is accurately estimated.
【0273】(6) 前記距離推定手段は、前記撮像手
段によって得られる画像上の適当な2点間の輝度の比率
を求め、この輝度の比率を前記撮像手段の視点と光源と
対象物体との相対的な位置関係によって導かれる倍率を
変数とする方程式で表し、前記対象物体上の複数の点の
組み合わせにより前記倍率に関する複数の方程式を導
き、この複数の方程式を解くことによって前記倍率を推
定する倍率推定手段を有してなり、前記倍率より前記対
象物体までの距離を推定する付記1に記載の内視鏡画像
処理装置。(6) The distance estimating means obtains a luminance ratio between two appropriate points on the image obtained by the image pickup means, and this luminance ratio is calculated between the viewpoint of the image pickup means, the light source and the target object. Expressed by an equation having a magnification that is derived by a relative positional relationship as a variable, a plurality of equations relating to the magnification are derived by combining a plurality of points on the target object, and the magnification is estimated by solving the plurality of equations. The endoscopic image processing apparatus according to appendix 1, further comprising a magnification estimating unit, which estimates a distance to the target object from the magnification.
【0274】(7) 前記倍率推定手段は、前記対象物
体上の複数の点の組み合わせにより算出される複数の方
程式を、倍率を求めるのに必要な数の組に分割し、各組
毎に求められる倍率を平均化することにより一つの倍率
を推定する手段からなる付記6に記載の内視鏡画像処理
装置。(7) The magnification estimating means divides a plurality of equations calculated by a combination of a plurality of points on the target object into groups of the number necessary for obtaining the magnification, and obtains each group. 7. The endoscopic image processing apparatus according to appendix 6, comprising means for estimating one magnification by averaging the magnifications.
【0275】(8) 前記倍率推定手段は、前記撮像手
段によって得られる画像上の適当な2点間の輝度の比率
と、前記撮像手段の視点と光源と対象物体との相対的な
位置関係によって導かれる倍率を変数とした輝度の比率
と、の差の二乗和が最小になるような倍率を推定する手
段からなる付記6に記載の内視鏡画像処理装置。(8) The magnification estimating means determines the brightness ratio between two appropriate points on the image obtained by the image pickup means and the relative positional relationship between the viewpoint of the image pickup means, the light source and the target object. 7. The endoscopic image processing apparatus according to attachment 6, comprising means for estimating a magnification that minimizes the sum of squares of the difference between the ratio of the brightness with the derived magnification as a variable.
【0276】(9) 前記距離推定手段は、前記撮像手
段によって得られる画像上の同一な色の2点を複数用い
て倍率を推定する倍率推定手段を有してなる付記1に記
載の内視鏡画像処理装置。(9) The distance estimation means includes magnification estimation means for estimating magnification using a plurality of two points of the same color on the image obtained by the image pickup means. Mirror image processing device.
【0277】(10) 前記倍率推定手段は、前記撮像
手段によって得られる画像上の同一な色の2点間の輝度
の比率と、前記撮像手段の視点と光源と対象物体との相
対的な位置関係によって導かれる倍率を変数とした輝度
の比率と、の差の二乗に色の同一性を表す重み関数を掛
けて合計した値が最小になるような倍率を推定する手段
からなる付記6に記載の内視鏡画像処理装置。(10) The magnification estimating means calculates the ratio of luminance between two points of the same color on the image obtained by the image pickup means, and the relative position of the viewpoint of the image pickup means, the light source and the target object. Appendix 6 comprising means for estimating the magnification such that the sum of squares of the difference between the luminance ratio with the magnification derived from the relationship as a variable and the weighting function representing the color identity is minimized. Endoscopic image processing device.
【0278】(11) 前記距離推定手段は、前記撮像
手段によって得られる画像上の点とその周辺の相関値の
形状が鋭くなる複数組の2点を用いて倍率を推定する倍
率推定手段を有してなる付記1に記載の内視鏡画像処理
装置。(11) The distance estimating means has a magnification estimating means for estimating the magnification using a plurality of sets of points on the image obtained by the imaging means and the surroundings of the correlation value having a sharp shape. The endoscopic image processing device according to appendix 1.
【0279】(12) 前記距離推定手段において用い
る相関値が、相互相関の値による付記11に記載の内視
鏡画像処理装置。(12) The endoscopic image processing device according to attachment 11, wherein the correlation value used in the distance estimating means is a value of a cross correlation.
【0280】(13) 前記距離推定手段において用い
る相関値が、自己相関の値による付記11に記載の内視
鏡画像処理装置。(13) The endoscopic image processing apparatus according to attachment 11, wherein the correlation value used in the distance estimating means is a value of autocorrelation.
【0281】(14) 前記倍率推定手段は、前記撮像
手段によって得られる画像上の相関値が適当なしきい値
よりも大きい2点間の輝度の比率と、前記撮像手段の視
点と光源と対象物体との相対的な位置関係によって導か
れる倍率を変数とした輝度の比率と、の差の二乗に相関
値から得られる重み関数を掛けて合計した値が最小にな
るような倍率を推定する手段からなる付記6に記載の内
視鏡画像処理装置。(14) The magnification estimating means is configured to measure the ratio of luminance between two points having a correlation value on the image obtained by the image pickup means larger than an appropriate threshold value, a viewpoint of the image pickup means, a light source and a target object. From the means of estimating the magnification such that the sum of the squares of the difference between the luminance with the magnification derived from the relative positional relationship with and the weighting function obtained from the correlation value becomes the minimum. The endoscopic image processing device according to appendix 6.
【0282】(15) 前記距離推定手段は、前記撮像
手段によって得られる画像上の適当な点の正規化された
輝度と、前記撮像手段の視点と光源と対象物体との相対
的な位置関係によって導かれる倍率を変数とする正規化
した輝度と、の差の二乗和が最小になるような倍率を推
定する倍率推定手段を有してなり、前記推定された倍率
より前記撮像手段から対象物体までの距離を推定する付
記1に記載の内視鏡画像処理装置。(15) The distance estimating means determines the normalized brightness of an appropriate point on the image obtained by the image pickup means and the relative positional relationship between the viewpoint of the image pickup means, the light source and the target object. It has a magnification estimating means for estimating the magnification such that the sum of squares of the difference between the normalized luminance with the derived magnification as a variable and the difference between the luminance and the target object is obtained from the estimated magnification. The endoscopic image processing device according to attachment 1, which estimates the distance between the two.
【0283】(16) 前記距離推定手段において用い
る正規化された輝度が、前記画像上点の周辺の輝度の平
均値によって正規化されたものからなる付記15に記載
の内視鏡画像処理装置。(16) The endoscopic image processing device according to attachment 15, wherein the normalized luminance used in the distance estimating means is normalized by the average value of the luminance around the points on the image.
【0284】(17) 前記距離推定手段において用い
る2点間の輝度の比率が、前記撮像手段の異なる位置か
ら撮像された同一点から得られる付記6に記載の内視鏡
画像処理装置。(17) The endoscopic image processing apparatus according to attachment 6, wherein the ratio of the luminance between two points used in the distance estimating means is obtained from the same point imaged from different positions of the image capturing means.
【0285】(18) 前記撮像手段は照明光を照射す
る複数の照射口を有し、前記距離推定手段は、前記各照
射口から照射される光に応じて得られるそれぞれの画像
の同一な2点間の輝度の比率を、前記撮像手段の視点と
照射口の位置と対象物体との相対的な位置関係によって
導かれる倍率を変数とする方程式で表し、前記対象物体
上の複数の点の組み合わせにより前記倍率に関する複数
の方程式を導き、この複数の方程式を解くことによって
前記倍率を推定する倍率推定手段を有してなり、前記推
定された倍率より前記撮像手段から対象物体までの距離
を推定する付記1に記載の内視鏡画像処理装置。(18) The image pickup means has a plurality of irradiation openings for irradiating illumination light, and the distance estimation means has the same number of two images obtained according to the light emitted from the irradiation openings. The ratio of luminance between points is expressed by an equation with a variable that is a magnification that is derived by the relative positional relationship between the viewpoint of the image pickup unit, the position of the irradiation opening, and the target object, and a combination of a plurality of points on the target object. A plurality of equations relating to the magnification are derived by, and a magnification estimating unit for estimating the magnification by solving the plurality of equations is provided, and the distance from the imaging unit to the target object is estimated from the estimated magnification. The endoscopic image processing apparatus according to attachment 1.
【0286】付記6〜18では、撮像手段の視点と光源
と対象物体との相対的な位置関係から推定される輝度の
比率と撮像手段で実際に得られる画像の輝度の比率とか
ら、撮像手段から対象物体上の適当な点の位置までの距
離を推定することにより、対象物体までの絶対的な距離
が正確に推定される。In Supplementary Notes 6 to 18, the image pickup means is calculated from the ratio of the luminance estimated from the relative positional relationship between the viewpoint of the image pickup means, the light source and the target object and the luminance ratio of the image actually obtained by the image pickup means. By estimating the distance from to the position of an appropriate point on the target object, the absolute distance to the target object can be accurately estimated.
【0287】(19) 前記相対形状推定手段は、前記
撮像手段により撮像された複数の画像から画像上の同一
な点の位置を検出する位置検出手段と、前記位置検出手
段で検出された同一な点の位置から対象物体の位置に対
する各撮像手段の位置を推定する撮像位置推定手段と、
前記位置検出手段と前記撮像位置推定手段の結果より前
記撮像手段から対象物体までの相対的な距離を推定する
相対距離推定手段と、を有してなる付記1に記載の内視
鏡画像処理装置。(19) The relative shape estimation means detects the position of the same point on the image from the plurality of images picked up by the image pickup means, and the same position detection means detects the same position. Imaging position estimation means for estimating the position of each imaging means with respect to the position of the target object from the position of the point,
The endoscopic image processing apparatus according to appendix 1, further comprising: a relative distance estimating unit that estimates a relative distance from the image capturing unit to a target object based on a result of the position detecting unit and the image capturing position estimating unit. .
【0288】(20) 前記位置検出手段は、前記画像
上の同一な点の位置を予測する位置予測手段と、前記位
置予測手段で予測された位置の周辺の部分画像の特徴を
検出する特徴検出手段と、前記検出された特徴により前
記画像上の同一な位置の検出処理を行う同一点検出手段
と、を有してなる付記19に記載の内視鏡画像処理装
置。(20) The position detecting means detects the position of the same point on the image, and the characteristic detecting means for detecting the characteristics of the partial image around the position predicted by the position predicting means. 20. The endoscopic image processing apparatus according to appendix 19, further comprising: a unit and a same point detection unit that performs a process of detecting the same position on the image according to the detected characteristic.
【0289】(21) 前記位置予測手段は、時系列的
に得られる画像において前回までの同一な点の位置の移
動量から推定される位置より予測する付記20に記載の
内視鏡画像処理装置。(21) The endoscopic image processing apparatus according to attachment 20, wherein the position predicting means predicts from a position estimated from the movement amount of the position of the same point up to the previous time in the images obtained in time series. .
【0290】(22) 前記特徴検出手段は、前記部分
画像の周波数特性より特徴を検出する付記20に記載の
内視鏡画像処理装置。(22) The endoscopic image processing apparatus according to attachment 20, wherein the feature detecting means detects a feature from the frequency characteristic of the partial image.
【0291】(23) 前記同一点検出手段は、画像上
の同一な点の位置を検出する同一点位置検出手段と、こ
の同一点位置検出手段の結果から前記同一な点の位置の
移動量を算出する移動量算出手段と、を有してなる付記
20に記載の内視鏡画像処理装置。(23) The same point detecting means detects the same point position detecting means for detecting the position of the same point on the image, and the movement amount of the same point position from the result of the same point position detecting means. 21. The endoscopic image processing device according to attachment 20, comprising: a moving amount calculating unit for calculating.
【0292】(24) 前記同一点位置検出手段は、テ
ンプレートマッチングを用いたものからなる付記23に
記載の内視鏡画像処理装置。(24) The endoscopic image processing apparatus according to attachment 23, wherein the same-point position detection means uses template matching.
【0293】(25) 前記同一点検出手段は、処理さ
れる画像に対して連続して同一な点の位置の検出を行わ
ない回数を数えるカウント手段を有してなる付記20に
記載の内視鏡画像処理装置。(25) The same-point detecting means has a counting means for counting the number of times that the position of the same point is not continuously detected in the image to be processed. Mirror image processing device.
【0294】付記19〜25では、時系列的に得られる
画像の中から焦点ズレが発生している画像を検出し、焦
点ズレが発生している画像は用いないようにし、画像間
の同一な点の位置を前回までの移動量から予測して、前
記同一な点の位置の検出を行うことにより、焦点の合っ
ていない画像が撮像された場合でも正確に同一点の検出
がなされる。In Supplementary Notes 19 to 25, an image having a defocus is detected from the images obtained in time series, the image having the defocus is not used, and the same images are obtained. By predicting the position of the point from the amount of movement up to the previous time and detecting the position of the same point, the same point can be accurately detected even when an image out of focus is captured.
【0295】(26) 前記同一点検出手段は、画像上
の同一な点の位置を検出する点の数とテンプレート画像
の大きさとを変更するテンプレート変更手段と、変更さ
れた検出点の数とテンプレート画像とから画像上の同一
な点の位置を検出する同一点位置検出手段と、この同一
点位置検出手段の結果から前記同一な点の位置の平均的
な移動量を算出する移動量算出手段と、を有してなる付
記20に記載の内視鏡画像処理装置。(26) The same point detecting means includes template changing means for changing the number of points for detecting the positions of the same points on the image and the size of the template image, and the number of changed detected points and the template. The same point position detection means for detecting the position of the same point on the image from the image, and the movement amount calculation means for calculating the average movement amount of the position of the same point from the result of the same point position detection means 21. The endoscopic image processing device according to attachment 20, comprising:
【0296】(27) 前記テンプレート変更手段は、
前記特徴検出手段で検出される部分画像の特徴に応じて
前記検出点の数とテンプレートの大きさとを決定する付
記26に記載の内視鏡画像処理装置。(27) The template changing means is
27. The endoscopic image processing device according to attachment 26, wherein the number of detection points and the size of the template are determined according to the features of the partial images detected by the feature detection means.
【0297】付記26及び27では、時系列的に得られ
る画像の中から焦点ズレが発生している画像を検出し、
焦点ズレを発生した画像間ではテンプレート画像の大き
さを変更して画像上の同一な点の位置の検出を行うよう
にする。この際、検出された同一点の位置を基に焦点ズ
レを発生した画像間の平均的な移動量を求め、その移動
量から画像上の同一な点の位置を予測して前記同一な点
の位置を検出することにより、焦点の合っていない画像
が撮像された場合でも正確に同一点の検出がなされる。In Supplementary Notes 26 and 27, the image in which the defocus is generated is detected from the images obtained in time series,
The size of the template image is changed between images in which defocus occurs, and the position of the same point on the image is detected. At this time, based on the detected position of the same point, the average amount of movement between images in which defocus is generated is calculated, and the position of the same point on the image is predicted from the amount of movement to predict the position of the same point. By detecting the position, the same point can be accurately detected even when an out-of-focus image is captured.
【0298】[0298]
【発明の効果】以上説明したように本発明によれば、同
一の対象物体に対して異なる位置から撮像された画像を
基に、撮像手段から対象物体までの絶対的な距離を精度
良く容易に推定することが可能となる効果がある。As described above, according to the present invention, the absolute distance from the image pickup means to the target object can be accurately and easily based on the images taken from different positions for the same target object. There is an effect that can be estimated.
【図1】第1の実施形態における電子内視鏡システムの
全体構成図FIG. 1 is an overall configuration diagram of an electronic endoscope system according to a first embodiment.
【図2】電子内視鏡装置のブロック構成を示すブロック
図FIG. 2 is a block diagram showing a block configuration of an electronic endoscope apparatus.
【図3】画像処理装置の構成を示すブロック図FIG. 3 is a block diagram showing the configuration of an image processing apparatus.
【図4】CPUで構成した画像処理手段の機能構成を示
すブロック図FIG. 4 is a block diagram showing a functional configuration of an image processing unit including a CPU.
【図5】ハードウェアで構成した画像処理手段の構成を
示すブロック図FIG. 5 is a block diagram showing a configuration of an image processing unit configured by hardware.
【図6】記録装置の構成を示すブロック図FIG. 6 is a block diagram showing the configuration of a recording device.
【図7】画像処理装置の入力部の変形例を示すブロック
図FIG. 7 is a block diagram showing a modified example of the input unit of the image processing apparatus.
【図8】相対形状推定手段の機能構成を示すブロック図FIG. 8 is a block diagram showing a functional configuration of relative shape estimation means.
【図9】距離推定手段の機能構成を示すブロック図FIG. 9 is a block diagram showing a functional configuration of distance estimation means.
【図10】対象物の相対的な形状を推定する処理の全体
的な流れを示すフローチャートFIG. 10 is a flowchart showing the overall flow of processing for estimating the relative shape of an object.
【図11】図10の各処理を説明するための作用説明図11 is an operation explanatory view for explaining each processing of FIG.
【図12】時系列に得られた画像データからシフトマッ
プを作成する様子を示す説明図FIG. 12 is an explanatory diagram showing a state in which a shift map is created from image data obtained in time series.
【図13】中心射影の座標系を示す説明図FIG. 13 is an explanatory diagram showing a coordinate system of central projection.
【図14】撮像手段の運動に関する回転ベクトル及び並
進ベクトルの関係を示す説明図FIG. 14 is an explanatory diagram showing a relationship between a rotation vector and a translation vector related to the motion of the image pickup means.
【図15】撮像手段の運動に伴う対象物体との距離の変
化を示す説明図FIG. 15 is an explanatory diagram showing a change in distance to a target object due to movement of the image pickup means.
【図16】時系列に得られた各画像の周波数特性を求め
る様子を示す説明図FIG. 16 is an explanatory diagram showing how to obtain the frequency characteristics of each image obtained in time series.
【図17】画像データの周波数特性を示す特性図FIG. 17 is a characteristic diagram showing frequency characteristics of image data.
【図18】ハレーションが発生した場合の光源及び撮像
手段と対象物体との位置関係を示す説明図FIG. 18 is an explanatory diagram showing a positional relationship between a light source and an imaging unit and a target object when halation occurs.
【図19】対象物上の点Pにおける接平面の法線ベクト
ルと視点O及び光源Sの位置座標係を示す説明図FIG. 19 is an explanatory view showing a normal vector of a tangent plane at a point P on an object and a position coordinate relation of a viewpoint O and a light source S.
【図20】対象物上の点Pにおける接平面の法線ベクト
ルの推定方法の一例を示す作用説明図FIG. 20 is an operation explanatory view showing an example of a method of estimating a normal vector of a tangent plane at a point P on an object.
【図21】第3の実施形態における内視鏡システムの全
体構成を示す構成説明図FIG. 21 is a structural explanatory view showing the overall structure of an endoscope system according to a third embodiment.
【図22】対象物体上のレーザ光の照射位置までの距離
を推定する動作を説明する作用説明図FIG. 22 is an operation explanatory view illustrating an operation of estimating a distance to a laser light irradiation position on a target object.
【図23】光源及び撮像手段の位置と撮像手段で得られ
る対象物体上の一点の輝度値との関係を示す説明図FIG. 23 is an explanatory diagram showing the relationship between the positions of the light source and the image pickup means and the brightness value of a point on the target object obtained by the image pickup means.
【図24】光源から対象物体上の適当な一点へのベクト
ルと対象物体の一点の法線ベクトルの関係を示す説明図FIG. 24 is an explanatory diagram showing a relationship between a vector from a light source to an appropriate point on the target object and a normal vector of the target object at one point.
【図25】撮像手段の視点Oから対象物体上の2点A,
Bまでのベクトルを示す説明図FIG. 25 shows two points A on the target object from the viewpoint O of the imaging means,
Explanatory diagram showing vectors up to B
【図26】光源位置ベクトルの推定方法の一例を示す作
用説明図FIG. 26 is an operation explanatory view showing an example of a method of estimating a light source position vector.
【図27】光源位置ベクトルの推定方法の一例を示す作
用説明図FIG. 27 is an operation explanatory view showing an example of a method of estimating a light source position vector.
【図28】画像内の特定の領域として設定されるテンプ
レート画像を示す説明図FIG. 28 is an explanatory diagram showing a template image set as a specific area in the image.
【図29】画像内の各点毎の相互相関の値を示す特性図FIG. 29 is a characteristic diagram showing the value of the cross-correlation for each point in the image.
【図30】画像内の模様に応じた相互相関の値の変化を
示す特性図FIG. 30 is a characteristic diagram showing changes in cross-correlation values according to patterns in an image.
【図31】テンプレート画像に関する相互相関の値を算
出する手順を示す作用説明図FIG. 31 is an operation explanatory view showing the procedure for calculating the value of the cross-correlation regarding the template image.
【図32】相互相関値の形状の鋭い点を検出する手順を
示す作用説明図FIG. 32 is an operation explanatory view showing a procedure of detecting a point having a sharp cross-correlation value shape.
【図33】撮像手段を移動させて撮像した複数の画像に
おける各撮像手段の視点Oから対象物体上の点Pへの位
置ベクトルを示す説明図FIG. 33 is an explanatory diagram showing a position vector from a viewpoint O of each imaging means to a point P on a target object in a plurality of images captured by moving the imaging means.
【図34】内視鏡の先端部に二つの照射口A,Bを設け
て各照射口からの光により複数の画像を撮像する場合の
作用説明図FIG. 34 is an operation explanatory view in the case where two irradiation ports A and B are provided at the distal end portion of the endoscope and a plurality of images are picked up by light from each irradiation port.
【図35】第10の実施形態に係る位置検出手段によっ
て時系列的に入力される複数の画像の同一点の検出を行
う過程を示したフローチャートFIG. 35 is a flowchart showing a process of detecting the same point in a plurality of images input in time series by the position detecting means according to the tenth embodiment.
【図36】時系列的に得られる複数の画像について各画
像の周波数特性の適当な周波数領域のパワーを算出する
手順を示す作用説明図FIG. 36 is an operation explanatory view showing a procedure of calculating power in an appropriate frequency region of frequency characteristics of each image for a plurality of images obtained in time series.
【図37】第11の実施形態に係る位置検出手段によっ
て時系列的に入力される複数の画像の同一点の検出を行
う過程を示したフローチャートFIG. 37 is a flowchart showing a process of detecting the same point in a plurality of images input in time series by the position detecting means according to the eleventh embodiment.
【図38】焦点ズレに関する量とテンプレート画像のサ
イズの大きさとの関係を示す説明図FIG. 38 is an explanatory diagram showing the relationship between the amount of defocus and the size of the template image.
1…内視鏡システム 2…電子内視鏡装置 3…画像処理装置 4…記録装置 5,8…モニタ 6…電子内視鏡 7…観察装置 7A…光源部 7B…信号処理部 16…先端部 19…撮像部 40…CPU 42…主記憶装置(RAM) 45…ROM 47…画像処理手段 50,62…相対形状推定手段 51,63…距離推定手段 52,64…絶対形状推定手段 DESCRIPTION OF SYMBOLS 1 ... Endoscope system 2 ... Electronic endoscope apparatus 3 ... Image processing apparatus 4 ... Recording apparatus 5, 8 ... Monitor 6 ... Electronic endoscope 7 ... Observing apparatus 7A ... Light source section 7B ... Signal processing section 16 ... Tip section Reference numeral 19 ... Imaging unit 40 ... CPU 42 ... Main storage device (RAM) 45 ... ROM 47 ... Image processing means 50, 62 ... Relative shape estimation means 51, 63 ... Distance estimation means 52, 64 ... Absolute shape estimation means
───────────────────────────────────────────────────── フロントページの続き (72)発明者 野波 徹緒 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Tetsuo Nonami 2-43-2 Hatagaya, Shibuya-ku, Tokyo Inside Olympus Optical Co., Ltd.
Claims (1)
撮像する撮像手段を有する内視鏡と、 前記撮像手段により撮像された複数の画像から、前記対
象物体の相対的な形状を推定する相対形状推定手段と、 前記撮像手段から前記対象物体上の適当な位置までの距
離を推定する距離推定手段と、 前記相対形状推定手段により推定された対象物体の相対
形状と前記距離推定手段により推定された対象物体まで
の距離とから、前記対象物体の絶対的な形状を推定する
絶対形状推定手段と、 を備えたことを特徴とする内視鏡画像処理装置。1. An endoscope having image pickup means for picking up the same target object from different positions, and a relative for estimating a relative shape of the target object from a plurality of images picked up by the image pickup means. Shape estimating means, distance estimating means for estimating a distance from the imaging means to an appropriate position on the target object, relative shape of the target object estimated by the relative shape estimating means, and the distance estimating means And an absolute shape estimating means for estimating an absolute shape of the target object from the distance to the target object.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP7173618A JPH0926547A (en) | 1995-07-10 | 1995-07-10 | Endoscopic image processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP7173618A JPH0926547A (en) | 1995-07-10 | 1995-07-10 | Endoscopic image processing device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0926547A true JPH0926547A (en) | 1997-01-28 |
Family
ID=15963959
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP7173618A Withdrawn JPH0926547A (en) | 1995-07-10 | 1995-07-10 | Endoscopic image processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0926547A (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6295368B1 (en) | 1998-04-10 | 2001-09-25 | Olympus Optical Co., Ltd. | Endoscopic image processing system capable of estimating absolute shape of object entity |
| WO2008099881A1 (en) | 2007-02-14 | 2008-08-21 | Olympus Medical Systems Corp. | Endoscope system for controlling the position of treatment tool and method of controlling the position thereof |
| WO2008120508A1 (en) | 2007-03-29 | 2008-10-09 | Olympus Medical Systems Corp. | Device for controlling position of treatment instrument for endoscope |
| JP2010119742A (en) * | 2008-11-21 | 2010-06-03 | Fujifilm Corp | Endoscope apparatus and its control method |
| WO2015125592A1 (en) * | 2014-02-20 | 2015-08-27 | オリンパス株式会社 | Endoscope system |
| US11055865B2 (en) | 2018-08-30 | 2021-07-06 | Olympus Corporation | Image acquisition device and method of operating image acquisition device |
| US11321861B2 (en) | 2017-05-23 | 2022-05-03 | Olympus Corporation | Method of operating measurement device, measurement device, measurement system, three-dimensional shape restoration device, and recording medium |
| CN116076985A (en) * | 2023-03-16 | 2023-05-09 | 珠海视新医用科技有限公司 | Endoscope anti-collision alarm device and electronic equipment |
| EP4424226A1 (en) * | 2023-03-03 | 2024-09-04 | FUJIFILM Corporation | Medical endoscope system and operation method thereof |
-
1995
- 1995-07-10 JP JP7173618A patent/JPH0926547A/en not_active Withdrawn
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6295368B1 (en) | 1998-04-10 | 2001-09-25 | Olympus Optical Co., Ltd. | Endoscopic image processing system capable of estimating absolute shape of object entity |
| WO2008099881A1 (en) | 2007-02-14 | 2008-08-21 | Olympus Medical Systems Corp. | Endoscope system for controlling the position of treatment tool and method of controlling the position thereof |
| WO2008120508A1 (en) | 2007-03-29 | 2008-10-09 | Olympus Medical Systems Corp. | Device for controlling position of treatment instrument for endoscope |
| JP2010119742A (en) * | 2008-11-21 | 2010-06-03 | Fujifilm Corp | Endoscope apparatus and its control method |
| US8439823B2 (en) | 2008-11-21 | 2013-05-14 | Fujifilm Corporation | Endoscope apparatus and its control method |
| JP2015154803A (en) * | 2014-02-20 | 2015-08-27 | オリンパス株式会社 | Endoscope system |
| WO2015125592A1 (en) * | 2014-02-20 | 2015-08-27 | オリンパス株式会社 | Endoscope system |
| CN106028904A (en) * | 2014-02-20 | 2016-10-12 | 奥林巴斯株式会社 | Endoscopy system |
| US10413155B2 (en) | 2014-02-20 | 2019-09-17 | Olympus Corporation | Endoscope system and the method of controlling the endoscope |
| US11321861B2 (en) | 2017-05-23 | 2022-05-03 | Olympus Corporation | Method of operating measurement device, measurement device, measurement system, three-dimensional shape restoration device, and recording medium |
| US11055865B2 (en) | 2018-08-30 | 2021-07-06 | Olympus Corporation | Image acquisition device and method of operating image acquisition device |
| EP4424226A1 (en) * | 2023-03-03 | 2024-09-04 | FUJIFILM Corporation | Medical endoscope system and operation method thereof |
| CN116076985A (en) * | 2023-03-16 | 2023-05-09 | 珠海视新医用科技有限公司 | Endoscope anti-collision alarm device and electronic equipment |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3347385B2 (en) | Endoscope image processing device | |
| US10213093B2 (en) | Focus control device, endoscope apparatus, and method for controlling focus control device | |
| JP5855358B2 (en) | Endoscope apparatus and method for operating endoscope apparatus | |
| JP5242381B2 (en) | Medical image processing apparatus and medical image processing method | |
| US7857752B2 (en) | Medical image processing apparatus and medical image processing method | |
| US20150339817A1 (en) | Endoscope image processing device, endoscope apparatus, image processing method, and information storage device | |
| US8184146B2 (en) | Medical image processing apparatus and medical image processing method | |
| JP6478136B1 (en) | Endoscope system and operation method of endoscope system | |
| US20150294463A1 (en) | Image processing device, endoscope apparatus, image processing method, and information storage device | |
| JP2012245161A (en) | Endoscope apparatus | |
| JP3438937B2 (en) | Image processing device | |
| JP6132901B2 (en) | Endoscope device | |
| WO2012114600A1 (en) | Medical image processing device and medical image processing method | |
| JP7387859B2 (en) | Medical image processing device, processor device, endoscope system, operating method and program for medical image processing device | |
| EP4101364A1 (en) | Medical image processing device, endoscope system, medical image processing method, and program | |
| JP7609075B2 (en) | Information processing device and information processing method | |
| JPH0926547A (en) | Endoscopic image processing device | |
| WO2017212725A1 (en) | Medical observation system | |
| EP4026479A1 (en) | Medical image processing device, endoscope system, medical image processing method, and program | |
| CN113907693B (en) | Operation mapping ratio adjusting method and device, electronic equipment and storage medium | |
| JP3126996B2 (en) | Endoscope image processing method | |
| JP2997785B2 (en) | Endoscope image processing apparatus and endoscope image processing method | |
| US20240423699A1 (en) | Medical system and method for detecting contact state | |
| WO2024024022A1 (en) | Endoscopic examination assistance device, endoscopic examination assistance method, and recording medium | |
| KR20240065115A (en) | Multiple image reconstruction and registration method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20021001 |