JPH1184223A - Automatic position detection method and automatic position detection device - Google Patents

Automatic position detection method and automatic position detection device

Info

Publication number
JPH1184223A
JPH1184223A JP23856997A JP23856997A JPH1184223A JP H1184223 A JPH1184223 A JP H1184223A JP 23856997 A JP23856997 A JP 23856997A JP 23856997 A JP23856997 A JP 23856997A JP H1184223 A JPH1184223 A JP H1184223A
Authority
JP
Japan
Prior art keywords
image
normalized correlation
correlation value
evaluation value
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP23856997A
Other languages
Japanese (ja)
Inventor
Takao Hirahara
隆生 平原
Yutaka Nakamura
裕 中村
Akihiko Yabuki
彰彦 矢吹
Hitoshi Komoriya
均 小森谷
Tetsuo Hizuka
哲男 肥塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP23856997A priority Critical patent/JPH1184223A/en
Publication of JPH1184223A publication Critical patent/JPH1184223A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

(57)【要約】 【課題】 光学系の焦点を自動的に合わせる自動合焦方
法に関し、正確、かつ、高速に対象物の位置検出が行え
る自動位置検出方法を提供することを目的とする。 【解決手段】 レンズパッケージ12をLDパッケージ
11に対して移動させる、レンズステージ103を連続
的に位置探索範囲を移動させつつ、レンズパッケージ1
2のレンズ12aを介して得られる像を撮像し、フレー
ム毎にフレームバッファ121に格納し、フレームバッ
ファ121に格納された画像をLDパッケージ11のレ
ンズ12aに対向する面の形状に応じて予め設定された
テンプレートパターンと正規化相関によりパターンマッ
チングさせて、各画像の正規化相関値を求め、最大の正
規化相関値を有する画像が得られた位置をレンズパッケ
ージ12のLDパッケージ11に対する最適位置として
検出する。
(57) [Problem] To provide an automatic focus detection method for automatically focusing on an optical system, and to provide an automatic position detection method capable of accurately and quickly detecting a position of an object. SOLUTION: The lens package 1 is moved with respect to an LD package 11, and the lens package 103 is moved continuously while moving a position search range.
An image obtained through the second lens 12a is captured, stored in the frame buffer 121 for each frame, and the image stored in the frame buffer 121 is preset according to the shape of the surface of the LD package 11 facing the lens 12a. By performing pattern matching using the normalized template pattern and the normalized correlation, a normalized correlation value of each image is obtained, and the position where the image having the maximum normalized correlation value is obtained is determined as the optimal position of the lens package 12 with respect to the LD package 11. To detect.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は自動位置検出方法及
び自動位置検出装置に係り、特に、光学系の焦点を自動
的に合わせる自動位置検出方法及び自動位置検出装置に
関する。近年、光ケーブル網の普及と共に、双方向光通
信ユニットの需要拡大が見込まれている。このため、双
方向光通信ユニットの大量生産技術が望まれている。
The present invention relates to an automatic position detecting method and an automatic position detecting device, and more particularly to an automatic position detecting method and an automatic position detecting device for automatically adjusting the focus of an optical system. In recent years, demand for bidirectional optical communication units is expected to increase with the spread of optical cable networks. For this reason, a technique for mass-producing bidirectional optical communication units is desired.

【0002】双方向光通信ユニットは、複雑な構成の光
学系を有する。このため、双方向光通信ユニットの大量
生産には、複雑な構成の光学系の焦点合わせを効率よく
行う必要があった。
A two-way optical communication unit has an optical system having a complicated configuration. For this reason, for mass production of the bidirectional optical communication unit, it was necessary to efficiently focus an optical system having a complicated configuration.

【0003】[0003]

【従来の技術】図13に光ケーブル網に用いられる双方
向通信モジュールの構成図を示す。双方向通信モジュー
ル1は、情報に応じた光を発光するとともに、光ファイ
バケーブル2を通過した光を受光するためのLDパッケ
ージ11、光ファイバケーブル2との光結合効率を高め
るためのレンズパッケージ12、光ファイバケーブル2
の端部が結合され、送信光と受信光とを振り分けるプリ
ズム部13から構成される。
2. Description of the Related Art FIG. 13 shows a configuration diagram of a two-way communication module used in an optical cable network. The two-way communication module 1 emits light according to information and receives the light passing through the optical fiber cable 2, an LD package 11, and a lens package 12 for increasing the efficiency of optical coupling with the optical fiber cable 2. , Optical fiber cable 2
Are coupled to each other to constitute a prism unit 13 for distributing transmission light and reception light.

【0004】LDパッケージ11は、伝送しよとする情
報に応じた電気信号をレーザ光に変換するための発光素
子11a、及び、光ファイバケーブル2を介して供給さ
れた光を電気信号に変換する受光素子11bが1つのパ
ッケージ11cに搭載された構成とされている。発光素
子11aは、レーザダイオード等から構成され、受光素
子11bは、フォトダイオード等から構成される。
[0004] The LD package 11 converts a light supplied from the optical fiber cable 2 into an electric signal, and a light emitting element 11a for converting an electric signal corresponding to information to be transmitted into laser light. The light receiving element 11b is mounted on one package 11c. The light emitting element 11a is configured by a laser diode or the like, and the light receiving element 11b is configured by a photodiode or the like.

【0005】レンズパッケージ12は、レンズ12a、
レンズホルダ12bから構成され、LDパッケージ11
の発光・受光面に対向して配置される。レンズ12a
は、レンズホルダ12bに保持され、LDパッケージ1
1の発光素子11aから発光された光を集光して光ファ
イバケーブル2に供給するとともに、光ファイバケーブ
ル2を伝送された光を集光してLDパッケージ11の受
光素子11bに供給する。
The lens package 12 includes a lens 12a,
The LD package 11 is composed of a lens holder 12b.
Are arranged so as to face the light emitting / receiving surface of the light emitting element. Lens 12a
Is held by the lens holder 12b, and the LD package 1
The light emitted from one light emitting element 11a is condensed and supplied to the optical fiber cable 2, and the light transmitted through the optical fiber cable 2 is condensed and supplied to the light receiving element 11b of the LD package 11.

【0006】レンズホルダ12bは、LDパッケージ1
1のパッケージ11cの送受光面に密着して保持され、
LDパッケージ11とレンズパッケージ12とが位置決
めされる。LDパッケージ11とレンズパッケージ12
との座標X、Y平面上での位置関係に応じて双方向光通
信ユニット1の送受光の効率が決定される。また、プリ
ズム部13は、プリズム13aの表面に全反射ミラー1
3b及びハーフミラー13cが形成された構成とされて
いる。LDパッケージ11の発光素子11aで発光され
た出力光は、レンズパッケージ12のレンズ12aによ
り集光されて、プリズム部13に供給される。
[0006] The lens holder 12b is an LD package 1
The package 11c is held in close contact with the light transmitting / receiving surface of the package 11c,
The LD package 11 and the lens package 12 are positioned. LD package 11 and lens package 12
The transmission / reception efficiency of the bidirectional optical communication unit 1 is determined according to the positional relationship on the coordinate X and Y planes. Further, the prism section 13 includes a total reflection mirror 1 on the surface of the prism 13a.
3b and a half mirror 13c are formed. Output light emitted by the light emitting element 11a of the LD package 11 is condensed by the lens 12a of the lens package 12 and supplied to the prism unit 13.

【0007】プリズム部13では、まず、プリズム13
aの一端に入射され、プリズム13aの他端に形成され
た全反射ミラー13bに供給される。出力光は、全反射
ミラー13bにより全反射され、プリズム13aを介し
てプリズム13aの一端に形成されたハーフミラー13
cに供給される。出力光は、ハーフミラー13cにより
プリズム13aの他端に向けて反射される。プリズム1
3aの他端は光ファイバケーブル2の端部に結合されて
おり、出力光は、光ファイバケーブル2に供給される。
In the prism section 13, first, the prism 13
a of the prism 13a and supplied to a total reflection mirror 13b formed at the other end of the prism 13a. The output light is totally reflected by the total reflection mirror 13b, and the half mirror 13 formed at one end of the prism 13a via the prism 13a.
c. The output light is reflected by the half mirror 13c toward the other end of the prism 13a. Prism 1
The other end of 3 a is coupled to the end of the optical fiber cable 2, and output light is supplied to the optical fiber cable 2.

【0008】また、光ファイバケーブル2から供給され
る入射光は、プリズム13aの他端から入力され、ハー
フミラー13cに供給される。ハーフミラー13cに供
給された入射光は、ハーフミラー13cを透過して、レ
ンズパッケージ12のレンズ12aに供給される。レン
ズ12aに供給された入射光は、レンズ12aで集光さ
れ、LDパッケージ11の受光素子11bに照射され
る。
The incident light supplied from the optical fiber cable 2 is input from the other end of the prism 13a and supplied to the half mirror 13c. The incident light supplied to the half mirror 13c passes through the half mirror 13c and is supplied to the lens 12a of the lens package 12. The incident light supplied to the lens 12a is condensed by the lens 12a and is applied to the light receiving element 11b of the LD package 11.

【0009】LDパッケージ11とレンズパッケージ1
2とは別体構成され、LDパッケージ11とレンズパッ
ケージ12とは、レンズ位置調整装置を用いて位置決め
される。従来のレンズ位置調整装置では、効率よく位置
調整を行うために、発光素子11aと受光素子11bの
発光、受光の検出を行わずに、LDパッケージ11のレ
ンズパッケージ12のレンズ12a越しの像の結像点を
探索してLDパッケージ11とレンズパッケージ12と
の位置関係を調整する、いわゆる、パッシブ調整方が採
用されている。
LD package 11 and lens package 1
2, the LD package 11 and the lens package 12 are positioned using a lens position adjusting device. In the conventional lens position adjusting device, in order to perform the position adjustment efficiently, the light emission and reception of the light emitting element 11a and the light receiving element 11b are not detected, and the image formation through the lens 12a of the lens package 12 of the LD package 11 is performed. A so-called passive adjustment method of adjusting the positional relationship between the LD package 11 and the lens package 12 by searching for an image point is employed.

【0010】このようなレンズ調整装置では、LDパッ
ケージ11をLDステージに固定し、レンズパッケージ
12をレンズステージに固定し、LDステージとレンズ
ステージ12との相対位置を所定の位置に設定し、撮像
装置によりLDパッケージ11の像をレンズパッケージ
12のレンズ12aを介して撮像し、レンズ12aを介
して撮像された像の特定の位置での輝度分散やフレーム
間の輝度差を評価する。従来は上記の操作を繰り返し、
最も良好は評価値が得られた画像の位置を最適な位置と
検出していた。
In such a lens adjusting device, the LD package 11 is fixed to the LD stage, the lens package 12 is fixed to the lens stage, the relative position between the LD stage and the lens stage 12 is set to a predetermined position, and the image is taken. The apparatus captures an image of the LD package 11 through the lens 12a of the lens package 12, and evaluates the luminance dispersion at a specific position of the image captured through the lens 12a and the luminance difference between frames. Conventionally, the above operation was repeated,
In the best case, the position of the image where the evaluation value was obtained was detected as the optimum position.

【0011】次に、従来の評価方法である輝度分散を図
面とともに説明する。図14に従来のレンズ位置検出方
法を説明するための図を示す。図14(A)は全体の動
作、図14(B)は所定の位置での動作を示す。まず、
図14(A)に示すように時刻t30で位置P0にレンズ
パッケージ12を移動させ、画像を撮像し、輝度分散に
よる画像の評価を行う。次に、位置P0での評価が終了
すると、時刻t31で、位置P1にレンズパッケージ12
を移動させ画像を撮像し、輝度分散による画像の評価を
行う。上記動作を繰り返すことにより、各位置での画像
を評価し、最適位置を検出している。
Next, a description will be given of luminance dispersion, which is a conventional evaluation method, with reference to the drawings. FIG. 14 is a view for explaining a conventional lens position detecting method. FIG. 14A shows the entire operation, and FIG. 14B shows the operation at a predetermined position. First,
As shown in FIG. 14A, at time t30, the lens package 12 is moved to the position P0, an image is taken, and the image is evaluated based on the luminance dispersion. Next, when the evaluation at the position P0 is completed, at a time t31, the lens package 12 is moved to the position P1.
Is moved to capture an image, and the image is evaluated based on the luminance dispersion. By repeating the above operation, the image at each position is evaluated, and the optimum position is detected.

【0012】また、図14(B)に示すように、各位置
P0、P1・・・での動作は、レンズパッケージ12を
各位置P0、P1・・・に移動させる過程S4−1と、
撮像装置によりレンズ越しの像を撮像する過程S4−
2、ステップS4−2で撮像された像の特定の位置での
輝度分散を求め、評価値を算出する過程S4−3から構
成される。レンズパッケージ12を各位置P0、P1・
・・に移動させる過程S4−1では、レンズステージを
微小距離だけ移動させ、停止させるための、起動、停止
によるロスがあり、100〜400msecの時間を要
していた。
As shown in FIG. 14B, the operation at each of the positions P0, P1,... Is performed by moving the lens package 12 to each of the positions P0, P1,.
Step S4- of imaging an image through a lens by an imaging device
2. It comprises a step S4-3 of obtaining a luminance variance at a specific position of the image taken in step S4-2 and calculating an evaluation value. Move the lens package 12 to each of the positions P0, P1,.
In the step S4-1 for moving the lens stage, there is a loss due to starting and stopping for moving and stopping the lens stage by a very small distance, and it takes 100 to 400 msec.

【0013】図15に輝度拡散によるレンズ位置評価方
法を説明するための図を示す。図15(A)は焦点の合
っている画像、図15(B)は焦点合っていない画像、
図15(C)は位置に応じた輝度の特性を示す。図15
(A)に示すように焦点合っている画像の輝度分布は、
図15(C)に実線で示すように位置に応じた分散が小
さくなる。また、図15(B)に示すように焦点合って
いない画像の輝度分布は、図15(C)に破線で示すよ
うに位置に応じた分散が大きくなる。
FIG. 15 is a diagram for explaining a lens position evaluation method based on luminance diffusion. FIG. 15A shows an in-focus image, FIG. 15B shows an out-of-focus image,
FIG. 15C shows a luminance characteristic according to a position. FIG.
The luminance distribution of the focused image as shown in FIG.
As shown by the solid line in FIG. 15C, the variance according to the position decreases. In addition, as shown by the broken line in FIG. 15C, the variance according to the position is large in the luminance distribution of the image that is not focused as shown in FIG.

【0014】よって、従来のレンズ位置調整装置では、
撮像したが画像のうち図15(C)に実線で示すように
位置に応じた分散が最も小さくなる位置を最適な位置と
評価して、LDパッケージ11に対するレンズパッケー
ジ12の位置を調整し、LDパッケージ11とレンズパ
ッケージ12とをレーザ溶接し、位置決めしていた。
Therefore, in the conventional lens position adjusting device,
The position where the variance according to the position is smallest as shown by the solid line in FIG. 15C is evaluated as the optimum position, and the position of the lens package 12 with respect to the LD package 11 is adjusted. The package 11 and the lens package 12 were positioned by laser welding.

【0015】[0015]

【発明が解決しようとする課題】しかるに、従来のレン
ズ位置検出方法では、位置を微小移動させつつ、画像読
み取り、評価値算出処理を実行していたため、レンズの
起動停止の回数が多く、レンズの移動時間のロスが多く
なるので、処理に時間がかかる等の問題点があった。
However, in the conventional lens position detection method, the image reading and the evaluation value calculation processing are executed while the position is slightly moved, so that the number of times of starting and stopping the lens is large, Since the loss of the moving time increases, there is a problem that the processing takes a long time.

【0016】また、従来のレンズ位置検出方法では、レ
ンズを介して撮像された画像の特定の位置における輝度
分散が最も小さい位置を最適位置として検出していたた
め、レンズを介して撮像される画像が複雑な形状である
場合には、特定の位置に無関係な像が結像された画像の
位置がレンズの最適位置と判断されてしまい、レンズの
位置決めが行われ、通信効率が悪くなってしまう等の問
題点があった。
Further, in the conventional lens position detecting method, the position where the luminance variance at the specific position of the image picked up through the lens is the smallest is detected as the optimum position. In the case of a complicated shape, the position of the image where an image irrelevant to a specific position is formed is determined as the optimal position of the lens, the lens is positioned, and the communication efficiency deteriorates. There was a problem.

【0017】本発明は上記の点に鑑みてなされたもの
で、正確、かつ、高速に対象物の位置検出が行える自動
位置検出方法及び自動位置検出装置を提供することを目
的とする。
The present invention has been made in view of the above points, and an object of the present invention is to provide an automatic position detecting method and an automatic position detecting device capable of accurately and quickly detecting a position of an object.

【0018】[0018]

【課題を解決するための手段】本発明の請求項1は、光
学系との位置関係を調整しようとする像を該光学系を介
して撮像し、撮像結果に応じて該像に対する該光学系の
位置を検出する自動位置検出方法において、前記像に対
する前記光学系の位置関係を制御して、所定の位置探索
範囲の画像を撮像する撮像過程と、前記撮像過程で撮像
された画像と前記像に応じて予め設定された画像とのず
れに応じた評価値を算出する評価値算出過程と、前記相
関算出過程で算出された正規化相関値に応じて該像に対
する該光学系の最適位置を検出する位置判定過程とを有
することを特徴とする。
According to a first aspect of the present invention, an image whose positional relationship with an optical system is to be adjusted is picked up through the optical system, and the optical system with respect to the image is taken in accordance with the picked-up result. In the automatic position detection method for detecting the position of the optical system, an image capturing step of controlling the positional relationship of the optical system with respect to the image to capture an image in a predetermined position search range, and the image captured in the image capturing step and the image An evaluation value calculating step of calculating an evaluation value corresponding to a deviation from an image set in advance, and an optimal position of the optical system with respect to the image according to a normalized correlation value calculated in the correlation calculating step. Detecting a position.

【0019】請求項1によれば、像に対する光学系の位
置関係を制御して、所定の位置探索範囲の画像を撮像
し、撮像された画像と像に対して予め設定された画像と
のずれに応じた評価値を算出し、算出された評価値に応
じて像に対する光学系の最適位置を検出することによ
り、像の形状が複雑な場合でも、その形状に応じて評価
値が算出されるので、確実に像の位置を検出できるの
で、像の位置に対する光学系の位置関係を正確に検出で
きる。
According to the first aspect, the positional relationship of the optical system with respect to the image is controlled to pick up an image in a predetermined position search range, and the difference between the picked-up image and the image set in advance with respect to the image. By calculating the evaluation value according to the calculated value and detecting the optimum position of the optical system with respect to the image according to the calculated evaluation value, the evaluation value is calculated according to the shape even if the shape of the image is complicated. Therefore, the position of the image can be reliably detected, and the positional relationship of the optical system with respect to the position of the image can be accurately detected.

【0020】請求項2は、前記撮像過程で前記所定の位
置探索範囲の画像を連続的に撮像し、フレーム毎に画像
を保持することを特徴とする。請求項2によれば、所定
の位置探索範囲の画像を連続的に撮像し、フレーム毎に
画像を保持することにより、撮像位置を微細に移動、停
止を繰り返す必要がないので、撮像を短時間に行え、よ
って、全体の処理時間を短縮できる。
According to a second aspect of the present invention, the image of the predetermined position search range is continuously captured in the image capturing process, and the image is held for each frame. According to the second aspect, by continuously capturing images in a predetermined position search range and holding the image for each frame, it is not necessary to repeatedly move and stop the capturing position, so that the capturing can be performed in a short time. And the overall processing time can be reduced.

【0021】請求項3は、前記撮像過程と前記評価値算
出過程とを並列的に実行することを特徴とする。請求項
3によれば、撮像過程と評価値算出過程とを並列的に実
行することにより、撮像と評価値計算とが同時に行わ
れ、全体の処理時間を短縮できる。請求項4は、前記位
置判定過程が前記相関算出過程で算出された相関値のう
ち最大値の画像が撮像された位置を前記最適位置と判定
することを特徴とする。
According to a third aspect of the present invention, the imaging step and the evaluation value calculating step are performed in parallel. According to the third aspect, by executing the imaging process and the evaluation value calculation process in parallel, the imaging and the evaluation value calculation are performed simultaneously, and the overall processing time can be reduced. A fourth aspect of the present invention is characterized in that the position determination step determines a position at which an image of a maximum value is captured among the correlation values calculated in the correlation calculation step as the optimum position.

【0022】請求項4によれば、評価値算出過程で算出
された相関値のうち最大値の画像が撮像された位置を最
適位置と判定することにより、予め設定された画像に最
も相関する画像が得られる位置を最適位置と判定できる
ため、最適位置を確実に検出できる。請求項5は、前記
位置判定過程により前記評価値算出過程で算出された評
価値の傾きを検出し、該評価値の傾きが反転したとき
に、該反転直前の評価値を最大値として該最大値の画像
が撮像された位置を前記最適位置と判定することを特徴
とする。
According to the fourth aspect, the position at which the image of the maximum value among the correlation values calculated in the evaluation value calculation process is taken is determined as the optimum position, so that the image most correlated with the preset image is determined. Can be determined as the optimum position, so that the optimum position can be reliably detected. Preferably, the inclination of the evaluation value calculated in the evaluation value calculation step is detected by the position determination step, and when the inclination of the evaluation value is inverted, the evaluation value immediately before the inversion is used as the maximum value. The position where the image of the value is captured is determined as the optimum position.

【0023】請求項5によれば、評価値の傾きを検出
し、正規化相関値の傾きが反転したときに、反転直前の
評価値を最大値として最大値の画像が撮像された位置を
最適値と判定することにより、全ての評価値が存在しな
くても、最大値の検出を行えるので、評価値の算出を省
略でき、よって、高速な処理が可能となる。請求項6
は、前記位置判定過程で判定された前記最適位置の周囲
の所定の範囲を位置探索範囲に設定する位置探索範囲設
定過程を有し、前記位置探索範囲設定過程で、設定され
た位置探索範囲に対して前記撮像過程、前記評価値算出
過程、位置判定過程を実行することを特徴とする。
According to the fifth aspect, the inclination of the evaluation value is detected, and when the inclination of the normalized correlation value is inverted, the evaluation value immediately before the inversion is set to the maximum value, and the position where the image of the maximum value is captured is optimized. By judging the value, even if all the evaluation values do not exist, the maximum value can be detected, so that the calculation of the evaluation value can be omitted, and thus high-speed processing can be performed. Claim 6
Has a position search range setting step of setting a predetermined range around the optimal position determined in the position determination step as a position search range, and in the position search range setting step, On the other hand, the imaging step, the evaluation value calculating step, and the position determining step are performed.

【0024】請求項6によれば、位置判定過程で判定さ
れた最適位置の周囲の所定の範囲を位置探索範囲に設定
し、設定された位置探索範囲に対して再び撮像過程、評
価値算出過程、位置判定過程を実行することにより、位
置探索範囲を順次絞り込み、正確に最適位置を検出でき
る。請求項7は、光学系との位置関係を調整しようとす
る像を該光学系を介して撮像し、撮像結果に応じて該像
に対する該光学系の位置を検出する自動位置検出装置に
おいて、前記像に対する前記光学系の位置関係を制御し
て、所定の位置探索範囲の画像を撮像する撮像手段と、
前記撮像手段で撮像された画像と前記像に応じて予め設
定された所定の画像との相関に応じた評価値を算出する
評価値算出手段と、前記評価値算出手段で算出された評
価値に応じて該像に対する該光学系の最適位置を検出す
る位置判定手段とを有することを特徴とする。
According to the present invention, a predetermined range around the optimum position determined in the position determination process is set as a position search range, and the set position search range is again imaged and evaluated. By executing the position determination process, the position search range is sequentially narrowed, and the optimum position can be accurately detected. The automatic position detection device according to claim 7, wherein an image whose positional relationship with the optical system is to be adjusted is captured via the optical system, and the position of the optical system with respect to the image is detected in accordance with a captured result. Imaging means for controlling a positional relationship of the optical system with respect to an image, and imaging an image in a predetermined position search range,
An evaluation value calculation unit that calculates an evaluation value corresponding to a correlation between the image captured by the imaging unit and a predetermined image that is set in advance according to the image; and an evaluation value calculated by the evaluation value calculation unit. And a position determining means for detecting an optimum position of the optical system with respect to the image in response to the determination.

【0025】請求項7によれば、像に対する光学系の位
置関係を制御して、所定の位置探索範囲の画像を撮像手
段により撮像し、評価値算出手段により撮像された画像
と像に対して予め設定された画像とのずれに応じた評価
値を算出し、位置判定手段により算出された評価値に応
じて像に対する光学系の最適位置を検出することによ
り、像の形状が複雑な場合でも、その形状に応じて評価
値が算出されるので、確実に像の位置を検出できるの
で、像の位置に対する光学系の位置関係を正確に検出で
きる。
According to the seventh aspect, the positional relationship of the optical system with respect to the image is controlled so that an image in a predetermined position search range is captured by the image capturing means, and the image and the image captured by the evaluation value calculating means are controlled. By calculating an evaluation value according to a deviation from a preset image and detecting an optimum position of the optical system with respect to the image according to the evaluation value calculated by the position determination unit, even when the shape of the image is complicated. Since the evaluation value is calculated according to the shape, the position of the image can be reliably detected, so that the positional relationship of the optical system with respect to the position of the image can be accurately detected.

【0026】[0026]

【発明の実施の形態】図1に本発明の第1実施例のブロ
ック構成図を示す。本実施例の自動焦点調整装置100
は、双方向光通信ユニット1のLDパッケージ11とレ
ンズパッケージ12との位置関係を調整するもので、L
Dパッケージ11を移動させるLDステージ101、L
Dステージ101の移動を制御するLDステージコント
ローラ102、レンズパッケージ12を移動させるレン
ズステージ103、レンズステージ103の移動を制御
するレンズステージコントローラ104、レンズパッケ
ージ12のレンズ12aを通したLDパッケージ11の
像を拡大する顕微鏡105、顕微鏡105を介して照明
光を照査する照明光源106、顕微鏡105で拡大され
た像を撮像するCCDカメラ107、顕微鏡105、C
CDカメラ107を移動させるカメラステージ108、
カメラステージ108の移動を制御するカメラステージ
コントローラ109、CCDカメラ107で撮像された
画像に応じて合焦点の位置を検出する処理を行う画像処
理部110、CCDカメラ110で撮像した画像を表示
するTVモニタ111、画像処理部110からのコマン
ドに応じてLDステージコントローラ102、レンズス
テージコントローラ104、カメラステージコントロー
ラ109を制御するメインコントローラ109から構成
される。
FIG. 1 is a block diagram showing a first embodiment of the present invention. Automatic focus adjustment device 100 of the present embodiment
Is for adjusting the positional relationship between the LD package 11 and the lens package 12 of the bidirectional optical communication unit 1.
LD stage 101 for moving D package 11, L
LD stage controller 102 for controlling movement of D stage 101, lens stage 103 for moving lens package 12, lens stage controller 104 for controlling movement of lens stage 103, image of LD package 11 through lens 12a of lens package 12. 105, an illumination light source 106 for inspecting illumination light via the microscope 105, a CCD camera 107 for capturing an image enlarged by the microscope 105, a microscope 105, C
A camera stage 108 for moving the CD camera 107,
A camera stage controller 109 for controlling the movement of the camera stage 108; an image processing unit 110 for performing processing for detecting the position of the focal point in accordance with the image captured by the CCD camera 107; and a TV for displaying the image captured by the CCD camera 110 It comprises a monitor 111, a main controller 109 for controlling the LD stage controller 102, the lens stage controller 104, and the camera stage controller 109 according to commands from the image processing unit 110.

【0027】LDステージ101には、LDパッケージ
11が固定される。LDステージ101は、LDステー
ジコントローラ102に接続されており、LDステージ
コントローラ102から供給される駆動制御信号に応じ
てLDパッケージ11を3次元座標X、Y、Z及び回転
角θ方向に移動させる。LDステージコントローラ10
2は、メインコントローラ112に接続されており、メ
インコントローラ112から供給されるコマンドに応じ
てLDステージ101に駆動制御信号を供給する。
The LD package 11 is fixed to the LD stage 101. The LD stage 101 is connected to the LD stage controller 102, and moves the LD package 11 in the three-dimensional coordinates X, Y, Z and the rotation angle θ direction according to a drive control signal supplied from the LD stage controller 102. LD stage controller 10
2 is connected to the main controller 112 and supplies a drive control signal to the LD stage 101 in response to a command supplied from the main controller 112.

【0028】レンズステージ103には、レンズパッケ
ージ12が固定される。レンズステージ103は、レン
ズステージコントローラ104に接続されており、レン
ズステージコントローラ104から供給される駆動制御
信号に応じてレンズパッケージ12を2次元座標X、Y
方向に移動させる。レンズステージコントローラ104
は、メインコントローラ112に接続されており、メイ
ンコントローラ112から供給されるコマンドに応じて
レンズステージ103を駆動制御信号を供給する。
The lens package 12 is fixed to the lens stage 103. The lens stage 103 is connected to a lens stage controller 104, and moves the lens package 12 in two-dimensional coordinates X and Y in accordance with a drive control signal supplied from the lens stage controller 104.
Move in the direction. Lens stage controller 104
Is connected to the main controller 112 and supplies a drive control signal for driving the lens stage 103 in response to a command supplied from the main controller 112.

【0029】カメラステージ108には、顕微鏡10
5、照明光源106、CCDカメラ107が固定され
る。カメラステージ108は、カメラステージコントロ
ーラ109に接続されており、カメラステージコントロ
ーラ109から供給される駆動制御信号に応じて顕微鏡
105、照明光源106、CCDカメラ107を3次元
座標X、Y、Z方向に移動させる。カメラステージコン
トローラ109は、メインコントローラ112に接続さ
れており、メインステージコントローラ109から供給
されるコマンドに応じてカメラステージ108に駆動制
御信号を供給する。
The camera stage 108 includes the microscope 10
5. The illumination light source 106 and the CCD camera 107 are fixed. The camera stage 108 is connected to a camera stage controller 109, and moves the microscope 105, the illumination light source 106, and the CCD camera 107 in three-dimensional coordinates X, Y, and Z directions according to a drive control signal supplied from the camera stage controller 109. Move. The camera stage controller 109 is connected to the main controller 112 and supplies a drive control signal to the camera stage 108 in response to a command supplied from the main stage controller 109.

【0030】メインコントローラ112は、画像処理部
110と接続されており、画像処理部110から供給さ
れるコマンドに応じてLDステージコントローラ10
2、レンズステージコントローラ104、カメラステー
ジコントローラ109にコマンドを供給する。画像処理
部110は、CCDカメラ110と接続されており、C
CDカメラ110から供給される画像を予め設定された
テンプレート画像と比較して、両者の正規化相関値を算
出し、算出した正規化相関値に応じてメインコントロー
ラ112にコマンドを送出し、LDパッケージ11とレ
ンズパッケージ12との座標X、Y方向の平面上におけ
る位置調整を行う。
The main controller 112 is connected to the image processing unit 110 and responds to a command supplied from the image processing unit 110 to operate the LD stage controller 10.
2. Commands are supplied to the lens stage controller 104 and the camera stage controller 109. The image processing unit 110 is connected to the CCD camera 110,
An image supplied from the CD camera 110 is compared with a preset template image, a normalized correlation value between the two is calculated, and a command is sent to the main controller 112 according to the calculated normalized correlation value. Position adjustment between the lens 11 and the lens package 12 on a plane in the X and Y directions is performed.

【0031】また、画像処理部110には、TVモニタ
111が接続されている。TVモニタ111には、CC
Dカメラ110で撮像された画像や、処理過程における
画像などが表示される。ここで、画像処理部110の構
成を図面とともに説明する。図2に本発明の第1実施例
の画像処理部のブロック構成図を示す。
A TV monitor 111 is connected to the image processing unit 110. The TV monitor 111 has a CC
An image captured by the D camera 110, an image in the process of processing, and the like are displayed. Here, the configuration of the image processing unit 110 will be described with reference to the drawings. FIG. 2 is a block diagram of the image processing unit according to the first embodiment of the present invention.

【0032】画像処理部110は、CCDカメラ107
で撮像された画像を入力する画像入力インタフェース部
120、CCDカメラ107で撮像された画像をフレー
ム毎に保持するフレームバッファ121、LDパッケー
ジ11のレンズパッケージ12に対向する面の2次元形
状に応じて予め設定されたテンプレートパターンが保持
されたテンプレート保持部122、画像処理プログラム
が格納されたプログラムメモリ123、メインコントロ
ーラ112との通信を行うインタフェース部124、プ
ログラムメモリ123に格納された画像処理プログラム
に基づいてメインコントローラ112を制御し、LDパ
ッケージ11のレンズパッケージ12を介して得られる
画像を取得し、フレームバッファ121に保持し、フレ
ームバッファ121に保持されたレンズパッケージ12
を介して得られたLDパッケージ11の画像とテンプレ
ート保持部122に保持されたテンプレートパターンと
のパターンマッチングを行い、所定の認識点における正
規化相関値を計算するCPU125、CPU125の作
業用メモリとなるRAM126、画像入力インタフェー
ス部120、フレームバッファ121、テンプレート保
持部122、プログラムメモリ123、インタフェース
部124、CPU125を接続するバス127から構成
される。
The image processing unit 110 includes a CCD camera 107
An image input interface unit 120 for inputting an image picked up by the camera, a frame buffer 121 for holding an image picked up by the CCD camera 107 for each frame, and a two-dimensional shape of a surface of the LD package 11 facing the lens package 12. Based on a template holding unit 122 holding a preset template pattern, a program memory 123 storing an image processing program, an interface unit 124 communicating with the main controller 112, and an image processing program stored in the program memory 123. To control the main controller 112 to obtain an image obtained through the lens package 12 of the LD package 11, hold the image in the frame buffer 121, and hold the lens package 12 held in the frame buffer 121.
CPU 125 that performs pattern matching between the image of the LD package 11 obtained through the above and the template pattern held in the template holding unit 122 to calculate a normalized correlation value at a predetermined recognition point, and serves as a working memory of the CPU 125. It comprises a RAM 126, an image input interface unit 120, a frame buffer 121, a template holding unit 122, a program memory 123, an interface unit 124, and a bus 127 connecting the CPU 125.

【0033】画像処理部110は、処理時には、プログ
ラムメモリ123に格納された画像処理プログラムがR
AM126に格納され、CPU125により処理が実行
される。プログラム実行時には、CCDカメラ107で
撮像された画像は、画像入力インタフェース部120を
介してバス127に入力され、順次フレームバッファ1
21に格納される。
At the time of processing, the image processing unit 110 stores the image processing program stored in the program memory 123 in R
It is stored in the AM 126 and the processing is executed by the CPU 125. At the time of executing the program, an image captured by the CCD camera 107 is input to the bus 127 via the image input interface unit 120 and is sequentially transmitted to the frame buffer 1.
21.

【0034】テンプレート保持部122には、例えば、
テンプレートパターンが複数パターン保持されている。
テンプレートパターンは、LDパッケージ11とレンズ
パッケージ12との位置関係が正しいときに、LDパッ
ケージ11のレンズパッケージ12との対向面のレンズ
12aを介して得られるべき画像の形状から所望のパタ
ーンが選択され、保持されている。
In the template holding unit 122, for example,
A plurality of template patterns are held.
As the template pattern, when the positional relationship between the LD package 11 and the lens package 12 is correct, a desired pattern is selected from the shape of an image to be obtained via the lens 12a on the surface of the LD package 11 facing the lens package 12. Is being held.

【0035】例えば、テンプレートパターンとしては、
LDパッケージ11の受光素子11bの受光面の形状、
発光素子11aの基板側面の形状が選択される。CPU
125は、テンプレートパターン保持部122に予め設
定されたテンプレートパターンとフレームバッファ12
1に格納された画像を正規化相関によるパターンマッチ
ングを行い、評価を行い、レンズパッケージ12の最適
位置を検出する。
For example, as a template pattern,
The shape of the light receiving surface of the light receiving element 11b of the LD package 11,
The shape of the side surface of the substrate of the light emitting element 11a is selected. CPU
Reference numeral 125 denotes a template pattern preset in the template pattern holding unit 122 and the frame buffer 12.
The image stored in No. 1 is subjected to pattern matching by normalized correlation, evaluation is performed, and the optimum position of the lens package 12 is detected.

【0036】次に、画像処理部110の動作を図面とと
もに説明する。図3に本発明の第1実施例の画像処理部
の処理フローチャートを示す。画像処理部110は、プ
ログラムメモリ123に格納された画像処理プログラム
が起動されると、まず、LDステージ101、レンズス
テージ104、カメラステージ108を移動させるコマ
ンドをメインコントローラ112に供給する(ステップ
S1−1)。
Next, the operation of the image processing unit 110 will be described with reference to the drawings. FIG. 3 shows a processing flowchart of the image processing unit according to the first embodiment of the present invention. When the image processing program stored in the program memory 123 is started, the image processing unit 110 first supplies a command to move the LD stage 101, the lens stage 104, and the camera stage 108 to the main controller 112 (Step S1- 1).

【0037】メインコントローラ112は、画像処理部
110からのコマンドに応じてLDステージコントロー
ラ102、レンズステージコントローラ104、カメラ
ステージコントローラ109にコマンドを供給する。L
Dステージコントローラ102、レンズステージコント
ローラ104、カメラステージコントローラ109は、
メインコントローラ112からのコマンドに応じてLD
ステージ101、レンズステージ103、カメラステー
ジ108に駆動制御信号を供給する。
The main controller 112 supplies a command to the LD stage controller 102, the lens stage controller 104, and the camera stage controller 109 in response to a command from the image processing unit 110. L
The D stage controller 102, the lens stage controller 104, and the camera stage controller 109
LD according to a command from the main controller 112
A drive control signal is supplied to the stage 101, the lens stage 103, and the camera stage.

【0038】LDステージ101は、LDステージコン
トローラ102から供給された駆動制御信号に応じて座
標X、Y方向の平面上で、予め設定された所定の位置に
固定されるように制御され、座標Z方向で、LDパッケ
ージ11とレンズパッケージ12とが密着されるように
制御される。また、カメラステージ108は、カメラス
テージコントローラ109からの駆動制御信号に応じて
LDパッケージ11に対して予め設定された所定の位置
に固定される。さらに、レンズステージ103は、予め
設定された位置探索範囲で移動するように制御される。
The LD stage 101 is controlled in accordance with a drive control signal supplied from the LD stage controller 102 so as to be fixed at a predetermined position on a plane in the coordinates X and Y directions, and the coordinates Z The direction is controlled so that the LD package 11 and the lens package 12 are in close contact with each other. Further, the camera stage 108 is fixed at a predetermined position set in advance with respect to the LD package 11 according to a drive control signal from the camera stage controller 109. Further, the lens stage 103 is controlled to move within a preset position search range.

【0039】ステップS1−1で、LDステージ10
1、レンズステージ103、カメラステージ108を駆
動すると同時に、フレーム数を決定する変数iを「0」
に初期化する(ステップS1−2)。次に、CCDカメ
ラ107で撮像された画像からを読み取り、変数iフレ
ーム目に対応した画像としてフレームバッファ121に
格納する(ステップS1−3)。このとき、ステップS
1−3で取得した変数iフレーム目の画像読取時のレン
ズステージ103の位置情報Zi をレンズステージコン
トローラ104からメインコントローラ112を介して
取得し、RAM126に保存する(ステップS1−
4)。
In step S1-1, the LD stage 10
1. At the same time as driving the lens stage 103 and the camera stage 108, the variable i for determining the number of frames is set to “0”.
(Step S1-2). Next, an image taken by the CCD camera 107 is read and stored in the frame buffer 121 as an image corresponding to the variable i-th frame (step S1-3). At this time, step S
The position information Zi of the lens stage 103 at the time of reading the image of the variable i frame acquired in 1-3 is acquired from the lens stage controller 104 via the main controller 112 and stored in the RAM 126 (step S1-
4).

【0040】ステップS1−3、S1−4をレンズステ
ージ103が移動する予め設定された位置探索範囲で繰
り返し、N+1フレーム分の画像及びその画像を取得し
たときのレンズステージ103の位置情報Zi を取得す
る(ステップS1−5、S1−6)。次に、画像処理部
110の画像処理プログラムでは、変数iを再び初期値
「0」に戻して(ステップS1−7)、iフレーム目の
画像に対してテンプレートパターン保持部122に保持
されたテンプレートパターンとパターンマッチングを行
い、正規化相関値Ci を算出する(ステップS1−
8)。
Steps S1-3 and S1-4 are repeated in a preset position search range in which the lens stage 103 moves, to obtain images for N + 1 frames and positional information Zi of the lens stage 103 when the images have been obtained. (Steps S1-5, S1-6). Next, in the image processing program of the image processing unit 110, the variable i is returned to the initial value “0” again (step S1-7), and the template held in the template pattern holding unit 122 for the i-th frame image. A pattern and pattern matching are performed to calculate a normalized correlation value Ci (step S1-
8).

【0041】次に、ステップS1−8で、算出された正
規化相関値Ci をそれまで算出された正規化相関値のう
ち最大の正規化相関値Cmax と比較する(ステップS1
−9)。ステップS1−9で、ステップS1−8で今回
算出された正規化相関値Ci がそれまで算出された正規
化相関値のうち最大の正規化相関値Cmax より大きい、
すなわち、Cmax <Ci のときには、ステップS1−8
で今回算出された正規化相関値Ci を最大の正規化相関
値Cmax に設定する(ステップS1−10)。
Next, in step S1-8, the calculated normalized correlation value Ci is compared with the largest normalized correlation value Cmax among the normalized correlation values calculated so far (step S1).
-9). In step S1-9, the normalized correlation value Ci calculated this time in step S1-8 is larger than the largest normalized correlation value Cmax among the normalized correlation values calculated so far.
That is, when Cmax <Ci, step S1-8 is executed.
Then, the normalized correlation value Ci calculated this time is set to the maximum normalized correlation value Cmax (step S1-10).

【0042】また、ステップS1−9で、ステップS1
−8で今回算出された正規化相関値Ci がそれまで算出
された正規化相関値のうち最大の正規化相関値Cmax よ
り小さいときには、それまで算出された正規化相関値の
うち最大の正規化相関値Cmax をそのまま最大の正規化
相関値Cmax に設定する。上記ステップS1−8〜S1
−9をステップS1−3〜S1−6で取得したN+1フ
レーム数分だけ実行する(ステップS1−11、S1−
12)。
In step S1-9, step S1 is executed.
If the normalized correlation value Ci calculated this time at -8 is smaller than the maximum normalized correlation value Cmax among the normalized correlation values calculated so far, the largest normalized correlation value among the normalized correlation values calculated so far is calculated. The correlation value Cmax is directly set to the maximum normalized correlation value Cmax. Steps S1-8 to S1
-9 is performed for the number of N + 1 frames acquired in steps S1-3 to S1-6 (steps S1-11, S1-
12).

【0043】ステップS1−11で、N+1フレーム数
分の画像に対して正規化相関値Ciの算出が終了し、最
大の正規化相関値Cmax が求められると、レンズステー
ジ103が上記ステップS1−8〜S1−12のうち最
大の正規化相関値Cmax が得られた位置にレンズステー
ジ103を移動して、処理を終了する(ステップS1−
10)。
In step S1-11, when the calculation of the normalized correlation value Ci is completed for the images of the (N + 1) th frame and the maximum normalized correlation value Cmax is obtained, the lens stage 103 moves to step S1-8. The lens stage 103 is moved to the position where the maximum normalized correlation value Cmax is obtained among S1 to S1-12, and the processing is ended (step S1-
10).

【0044】なお、ステップS1−10で、最大の正規
化相関値Cmax が得られたレンズステージ103の位置
に移動した後、メインコントローラ112からの命令に
よりレーザ溶接機(図示せず)が制御され、LDパッケ
ージ11とレンズパッケージ12とがレーザ溶接され
る。図4、図5に本発明の第1実施例の動作説明図を示
す。図4は横軸に時間、図5は横軸に時間、縦軸にレン
ズステージ103の位置を示す。
After moving to the position of the lens stage 103 where the maximum normalized correlation value Cmax is obtained in step S1-10, the laser welding machine (not shown) is controlled by a command from the main controller 112. , The LD package 11 and the lens package 12 are laser-welded. 4 and 5 are explanatory diagrams of the operation of the first embodiment of the present invention. 4 shows time on the horizontal axis, FIG. 5 shows time on the horizontal axis, and the position of the lens stage 103 on the vertical axis.

【0045】時刻t0で、画像処理プログラムが実行さ
れると、位置探索範囲P0〜P1で例えば、33mse
c毎に順次画像の取り込みが行われ、フレーム番号0〜
Nの画像がフレームバッファ121に順次取り込まれ
る。時刻t1で、位置探索範囲の画像がフレームバッフ
ァ121に取り込まれると、レンズステージ103の位
置は最終探索位置P1に保持され、次に、フレームバッ
ファ121に取り込んだフレーム番号0〜Nの画像のそ
れぞれについてテンプレート保持部122に保持された
テンプレートパターンに基づいて正規化相関値が算出さ
れる。
When the image processing program is executed at time t0, the position search range P0 to P1 is set to, for example, 33 msec.
Images are sequentially captured for each c, and frame numbers 0 to
N images are sequentially taken into the frame buffer 121. At time t1, when an image in the position search range is fetched into the frame buffer 121, the position of the lens stage 103 is held at the final search position P1, and then each of the images of frame numbers 0 to N fetched into the frame buffer 121 , A normalized correlation value is calculated based on the template pattern held in the template holding unit 122.

【0046】時刻t2で、フレーム番号0〜Nの画像に
ついて正規化相関値Ci が算出されると、フレーム番号
0〜Nの画像の正規化相関値Ci のうち最大の正規化相
関値Cmax を検出する。検出された最大の正規化相関値
Cmax のフレーム番号の画像が撮像された位置P5にレ
ンズステージ103を移動させ、処理が完了する。図6
に本発明の第1実施例の位置探索範囲に対する正規化相
関値の関係を示す図を示す。
At time t2, when the normalized correlation value Ci is calculated for the images of frame numbers 0 to N, the largest normalized correlation value Cmax among the normalized correlation values Ci of the images of frame numbers 0 to N is detected. I do. The lens stage 103 is moved to the position P5 where the image of the frame number of the detected maximum normalized correlation value Cmax is captured, and the process is completed. FIG.
FIG. 11 shows a relationship between the normalized correlation value and the position search range according to the first embodiment of the present invention.

【0047】図6では、探索位置P1で正規化相関値C
1、探索位置P2、P8で正規化相関値C2(=C
8)、探索位置P3、P6で正規化相関値C3(=C
6)、探索位置P4で正規化相関値C4、探索位置P5
で正規化相関値C5(Cmax )が算出されると、最大の
正規化相関値C5(Cmax )となる探索範囲P5にレン
ズステージ103が移動されることになる。
In FIG. 6, the normalized correlation value C at the search position P1
1. At the search positions P2 and P8, the normalized correlation value C2 (= C
8), normalized correlation values C3 (= C
6), normalized correlation value C4 at search position P4, search position P5
When the normalized correlation value C5 (Cmax) is calculated in (5), the lens stage 103 is moved to the search range P5 where the maximum normalized correlation value C5 (Cmax) is obtained.

【0048】なお、本実施例では、図3のステップS1
−7〜S1−12で、位置探索範囲で取得された全ての
画像に対してパターンマッチングを行い正規化相関値を
算出したが、正規化相関値の傾きを検出し、正規化相関
値の傾きの変化に応じて正規化相関値の最大値を求める
方法もある。ここで、正規化相関値の傾きの変化に応じ
て正規化相関値の最大値を求める方法を第2実施例とし
て説明する。構成は、図1、図2に示す第1実施例と同
じであるので、その説明は省略する。
In this embodiment, step S1 of FIG.
In steps -7 to S1-12, the normalized correlation value is calculated by performing pattern matching on all the images acquired in the position search range. The slope of the normalized correlation value is detected, and the slope of the normalized correlation value is detected. There is also a method of obtaining the maximum value of the normalized correlation value in accordance with the change of. Here, a method of obtaining the maximum value of the normalized correlation value according to the change in the slope of the normalized correlation value will be described as a second embodiment. Since the configuration is the same as that of the first embodiment shown in FIGS. 1 and 2, description thereof is omitted.

【0049】図7に本発明の第2実施例の画像処理部の
処理フローチャートを示す。同図中、図3と同一処理部
分には同一符号を付し、その説明は省略する。本実施例
の処理は、第1実施例の処理とは、ステップS1−8〜
ステップS1−12の処理が相違する。本実施例では、
ステップS1−8でiフレーム目の画像をパターンマッ
チングが行われ、正規化相関値Ci が算出されると、i
が0、すなわち、最初の画像の正規化相関値C0か否か
が判定される(ステップS2−1)。
FIG. 7 is a flowchart showing the operation of the image processing unit according to the second embodiment of the present invention. In the figure, the same reference numerals are given to the same processing parts as in FIG. 3, and the description thereof will be omitted. The processing of the present embodiment is different from the processing of the first embodiment in steps S1-8 to S1-8.
The processing in step S1-12 is different. In this embodiment,
In step S1-8, the i-th frame image is subjected to pattern matching, and the normalized correlation value Ci is calculated.
Is 0, that is, whether or not the normalized correlation value C0 of the first image is obtained (step S2-1).

【0050】ステップS2−1で、最初の画像の正規化
相関値C0の場合には、前の位置での画像が存在しない
ので、その傾きが不明であるので、まず、算出された正
規化相関値C0を最大値の正規化相関値Cmax に設定
し、i=i+1として、ステップS1−8に戻って、次
の画像の正規化相関値を求める(ステップS2−2、S
2−3)。
In step S2-1, in the case of the normalized correlation value C0 of the first image, since the image at the previous position does not exist, its inclination is unknown. The value C0 is set to the maximum normalized correlation value Cmax, i = i + 1, and the process returns to step S1-8 to obtain the normalized correlation value of the next image (steps S2-2 and S2-2).
2-3).

【0051】i=1以降は、ステップS1−8でiフレ
ーム目の画像をパターンマッチングが行われ、正規化相
関値Ci が算出されると、前の位置で取得された画像の
正規化相関値Ci-1 との差ΔCi (=Ci −Ci-1 )、
すなわち、正規化相関値の傾きを算出する(ステップS
2−4)。次に、ステップS2−4で算出された正規化
相関値の傾きΔCi の正負を判定する(ステップS2−
5)。
After i = 1, the image of the i-th frame is subjected to pattern matching in step S1-8, and the normalized correlation value Ci is calculated. When the normalized correlation value Ci is calculated, the normalized correlation value of the image acquired at the previous position is obtained. Difference ΔCi from Ci-1 (= Ci-Ci-1),
That is, the slope of the normalized correlation value is calculated (step S
2-4). Next, it is determined whether the slope ΔCi of the normalized correlation value calculated in step S2-4 is positive or negative (step S2-
5).

【0052】ステップS2−5で正規化相関値の傾きΔ
Ci が正、すなわち、ΔCi ≧0であれば、次に位置の
画像の正規化相関値が最大値となる可能性があるので、
ステップS2−2に戻って、今回の位置の画像の正規化
相関値Ci を最大の正規化相関値Cmax に設定して、次
に位置の画像の正規化相関値を求める(ステップS2−
3、S1−8)。
In step S2-5, the gradient Δ of the normalized correlation value
If Ci is positive, that is, ΔCi ≧ 0, there is a possibility that the normalized correlation value of the image at the next position may become the maximum value.
Returning to step S2-2, the normalized correlation value Ci of the image at the current position is set to the maximum normalized correlation value Cmax, and the normalized correlation value of the image at the next position is obtained (step S2-).
3, S1-8).

【0053】また、ステップS2−5で、正規化相関値
の傾きΔCi が負、すなわち、ΔCi <0のときは、前
の位置の画像の正規化相関値Ci-1 の方が今回の位置の
画像の正規化相関値Ci より大きいことになるので、前
の位置の画像の正規化相関値Ci-1 が最大値であると判
断できる。これは、探索位置Pi に対する正規化相関値
Ci の特性が2次関数的な特性となることに起因する。
In step S2-5, when the gradient .DELTA.Ci of the normalized correlation value is negative, that is, when .DELTA.Ci <0, the normalized correlation value Ci-1 of the image at the previous position is smaller than that of the current position. Since it is larger than the normalized correlation value Ci of the image, it can be determined that the normalized correlation value Ci-1 of the image at the previous position is the maximum value. This is because the characteristic of the normalized correlation value Ci with respect to the search position Pi becomes a quadratic function characteristic.

【0054】よって、前の位置の画像の正規化相関値C
i-1 を最大の正規化相関値Cmax に設定して、以降の画
像に対しては、パターンマッチング、正規化相関値Ci
の算出を中止し(ステップS2−7)、正規化相関値C
max の位置にレンズステージ103を移動させ、処理を
終了する(ステップS1−13)。図8、図9に本発明
の第2実施例の動作説明図を示す。
Therefore, the normalized correlation value C of the image at the previous position
i-1 is set to the maximum normalized correlation value Cmax, and pattern matching and normalized correlation value Ci
Is stopped (step S2-7), and the normalized correlation value C
The lens stage 103 is moved to the position of max, and the process ends (step S1-13). 8 and 9 are explanatory diagrams of the operation of the second embodiment of the present invention.

【0055】本実施例では、図9時刻t1で位置探索範
囲内の画像の読み取りが終了すると、図8に示すように
探索位置P1の正規化相関値C1が算出される。このと
き、正規化相関値の傾きΔCi を求めることはできない
ので、まず、正規化相関値C1を最大の正規化相関値C
max に設定する。次に、探索位置P2の正規化相関値C
2が算出される。このとき、正規化相関値C2は、前の
位置P1の正規化相関値C1より大きいので、正規化相
関値の傾きΔCi は正となり、正規化相関値C2を最大
の正規化相関値Cmax に設定する。
In this embodiment, when reading of the image within the position search range is completed at time t1 in FIG. 9, a normalized correlation value C1 of the search position P1 is calculated as shown in FIG. At this time, since the gradient ΔCi of the normalized correlation value cannot be obtained, first, the normalized correlation value C1 is set to the maximum normalized correlation value C1.
Set to max. Next, the normalized correlation value C at the search position P2
2 is calculated. At this time, since the normalized correlation value C2 is larger than the normalized correlation value C1 at the previous position P1, the slope ΔCi of the normalized correlation value becomes positive, and the normalized correlation value C2 is set to the maximum normalized correlation value Cmax. I do.

【0056】なお、正規化相関値の傾きΔCi が正であ
るので、次の探索位置P3の正規化相関値C3が正規化
相関値C2より大きい可能性があると判断できるので、
次の探索位置P3の正規化相関値C3を算出する。次
に、探索位置P3の正規化相関値C3が算出され、この
とき、正規化相関値C3が前の位置P2の正規化相関値
C2より大きい場合、正規化相関値の傾きΔCi は正と
なり、正規化相関値C3を最大の正規化相関値Cmax に
設定する。
Since the slope ΔCi of the normalized correlation value is positive, it can be determined that the normalized correlation value C3 at the next search position P3 may be larger than the normalized correlation value C2.
A normalized correlation value C3 at the next search position P3 is calculated. Next, a normalized correlation value C3 at the search position P3 is calculated. At this time, when the normalized correlation value C3 is larger than the normalized correlation value C2 at the previous position P2, the slope ΔCi of the normalized correlation value becomes positive, The normalized correlation value C3 is set to the maximum normalized correlation value Cmax.

【0057】なお、正規化相関値の傾きΔCi が正であ
るので、次の探索位置P4の正規化相関値C4が正規化
相関値C3より大きい可能性があると判断できるので、
次の探索位置P4の正規化相関値C4を算出する。次
に、探索位置P4の正規化相関値C4が算出され、この
とき、正規化相関値C4が前の位置P3の正規化相関値
C3より大きい場合、正規化相関値の傾きΔCi は正と
なり、正規化相関値C4を最大の正規化相関値Cmax に
設定する。
Since the slope ΔCi of the normalized correlation value is positive, it can be determined that the normalized correlation value C4 at the next search position P4 may be larger than the normalized correlation value C3.
A normalized correlation value C4 at the next search position P4 is calculated. Next, the normalized correlation value C4 at the search position P4 is calculated. At this time, when the normalized correlation value C4 is larger than the normalized correlation value C3 at the previous position P3, the slope ΔCi of the normalized correlation value becomes positive, The normalized correlation value C4 is set to the maximum normalized correlation value Cmax.

【0058】なお、正規化相関値の傾きΔCi が正であ
るので、次の探索位置P5の正規化相関値C5が正規化
相関値C4より大きい可能性があると判断できるので、
次の探索位置P5の正規化相関値C5を算出する。次
に、探索位置P5の正規化相関値C5が算出され、この
とき、正規化相関値C5が前の位置P4の正規化相関値
C4より大きい場合、正規化相関値の傾きΔCi は正と
なり、正規化相関値C5を最大の正規化相関値Cmax に
設定する。
Since the slope ΔCi of the normalized correlation value is positive, it can be determined that the normalized correlation value C5 at the next search position P5 may be larger than the normalized correlation value C4.
A normalized correlation value C5 at the next search position P5 is calculated. Next, the normalized correlation value C5 at the search position P5 is calculated. At this time, when the normalized correlation value C5 is larger than the normalized correlation value C4 at the previous position P4, the slope ΔCi of the normalized correlation value becomes positive, The normalized correlation value C5 is set to the maximum normalized correlation value Cmax.

【0059】なお、正規化相関値の傾きΔCi が正であ
るので、次の探索位置P6の正規化相関値C6が正規化
相関値C5より大きい可能性があると判断できるので、
次の探索位置P6の正規化相関値C6を算出する。次
に、探索位置P6の正規化相関値C6が算出され、この
とき、正規化相関値C6は前の位置P5の正規化相関値
C5より小さい場合、正規化相関値の傾きΔCi は負と
なり、前の正規化相関値C5の方が今回の正規化相関値
C6より大きいので、前の正規化相関値C5を最大の正
規化相関値Cmax に設定する。
Since the slope ΔCi of the normalized correlation value is positive, it can be determined that the normalized correlation value C6 at the next search position P6 may be larger than the normalized correlation value C5.
A normalized correlation value C6 at the next search position P6 is calculated. Next, the normalized correlation value C6 at the search position P6 is calculated. At this time, when the normalized correlation value C6 is smaller than the normalized correlation value C5 at the previous position P5, the slope ΔCi of the normalized correlation value becomes negative, Since the previous normalized correlation value C5 is larger than the current normalized correlation value C6, the previous normalized correlation value C5 is set to the maximum normalized correlation value Cmax.

【0060】なお、このとき、正規化相関値の傾きΔC
i が負であり、位置Pに対する正規化相関値Ci の特性
は、2次関数的となるので、次の探索位置P7の正規化
相関値C7は正規化相関値C6より大きくなる可能性は
ない判断できるので、以降、位置P7、P8の正規化相
関値C7、C8の算出は停止される。このため、図9の
時刻t11でパターンマッチング及び正規化相関値の算出
処理が停止され、レンズステージ103が移動される。
At this time, the slope ΔC of the normalized correlation value
Since i is negative and the characteristic of the normalized correlation value Ci with respect to the position P is quadratic, the normalized correlation value C7 at the next search position P7 is unlikely to be larger than the normalized correlation value C6. Since the determination can be made, the calculation of the normalized correlation values C7 and C8 at the positions P7 and P8 is stopped thereafter. Therefore, at time t11 in FIG. 9, the pattern matching and the calculation processing of the normalized correlation value are stopped, and the lens stage 103 is moved.

【0061】以上、本実施例によれば、不要なパターン
マッチング及び、不要な正規化相関値の算出を行う必要
がないので、処理時間を短縮できる。なお、第1、第2
実施例では、予め設定された位置探索範囲内でN+1フ
レームの画像の正規化相関値を求め、最大値を求めた
が、上記第1、第2実施例の処理を繰り返し、位置探索
範囲を絞り込み、最大値を求めることにより、正確に最
大の正規化相関値を求める方法も考えられる。
As described above, according to this embodiment, there is no need to perform unnecessary pattern matching and unnecessary normalized correlation value calculation, so that the processing time can be reduced. Note that the first and second
In the embodiment, the normalized correlation value of the image of the (N + 1) th frame is obtained within the preset position search range, and the maximum value is obtained. However, the processing of the first and second embodiments is repeated to narrow down the position search range. , The maximum value can be determined to accurately determine the maximum normalized correlation value.

【0062】第1、第2実施例の処理を繰り返すことに
より位置探索範囲を絞り込む方法を第3実施例として説
明する。なお、構成は、図1、図2に示す第1実施例と
同じであるので、その説明は省略する。図10に本発明
の第3実施例の画像処理部の処理フローチャートを示
す。本実施例では、まず、第1実施例の図3に示すステ
ップS1−1〜1−12の処理又は第2実施例の図7に
示すステップS1−1〜S1−8、S2−1〜S2−7
の処理により最大の正規化相関値Cmax を求める(ステ
ップS3−1)。
A method of narrowing the position search range by repeating the processing of the first and second embodiments will be described as a third embodiment. Since the configuration is the same as that of the first embodiment shown in FIGS. 1 and 2, description thereof is omitted. FIG. 10 is a processing flowchart of the image processing unit according to the third embodiment of the present invention. In this embodiment, first, the processing of steps S1-1 to 1-12 shown in FIG. 3 of the first embodiment or steps S1-1 to S1-8 and S2-1 to S2 shown in FIG. 7 of the second embodiment. -7
The maximum normalized correlation value Cmax is obtained by the processing of (step S3-1).

【0063】次に、ステップS3−1で求めた最大の正
規化相関値Cmax の位置Pmax の前後の位置Pmax-1 、
Pmax+1 の範囲を位置探索範囲に設定する(ステップS
3−2)。次に、ステップS3−2で、設定された位置
検索範囲Pmax-1 〜Pmax+1 で第1実施例の図3に示す
ステップS1−1〜1−12の処理又は第2実施例の図
7に示すステップS1−1〜S1−8、S2−1〜S2
−7の処理により最大の最大の正規化相関値Cmax を求
める(ステップS3−3)。
Next, the position Pmax-1 before and after the position Pmax of the maximum normalized correlation value Cmax obtained in step S3-1,
The range of Pmax + 1 is set as the position search range (step S
3-2). Next, in step S3-2, the processing of steps S1-1 to 1-12 shown in FIG. 3 of the first embodiment or FIG. 7 of the second embodiment is performed with the set position search ranges Pmax-1 to Pmax + 1. Steps S1-1 to S1-8, S2-1 to S2 shown in FIG.
The maximum normalized correlation value Cmax is obtained by the process of -7 (step S3-3).

【0064】次に、ステップS3−3で得られた最大の
正規化相関値Cmax の位置にレンズステージ103を移
動して、処理を終了する(ステップS3−4)。図11
に本発明の第3実施例の動作説明図を示す。図11は横
軸が画像読取位置、縦軸が正規化相関値Ci を示す。ま
た、同図中、×は祖検出、○は微検出を示す。
Next, the lens stage 103 is moved to the position of the maximum normalized correlation value Cmax obtained in step S3-3, and the process ends (step S3-4). FIG.
FIG. 11 is a diagram for explaining the operation of the third embodiment of the present invention. In FIG. 11, the horizontal axis indicates the image reading position, and the vertical axis indicates the normalized correlation value Ci. In the same figure, x indicates detection of ancestry, and o indicates fine detection.

【0065】まず、図10のステップS3−1では、図
11に×で示すように位置P1-1 〜P1-7 の比較的広い
範囲が探索範囲とされ、画像読み取りが行われ、各位置
P1-1 〜P1-7 で読み取られた画像に対してパターンマ
ッチングが行われ、正規化相関値C1-1 〜C1-7 が算出
される。図11の位置探索範囲P1-1 〜P1-7 で、最大
の正規化相関値Cmax1は、位置P1-4 で取得された画像
の正規化相関値C1-4 となる。次に、位置P1-4 の前後
の位置P1-3 (Pmax-1 )〜P1-5 (Pmax+1 )を位置
探索範囲に設定する。位置探索範囲P1-3 (Pmax-1 )
〜P1-5 (Pmax+1 )で、画像が読み取られ、各位置P
2-1 〜P2-7 で取得された画像の正規化相関値C2-1 〜
C2-7 が算出される。
First, in step S3-1 in FIG. 10, a relatively wide range of the positions P1-1 to P1-7 is set as a search range as indicated by a mark X in FIG. 11, and an image is read. Pattern matching is performed on the images read at -1 to P1-7, and normalized correlation values C1-1 to C1-7 are calculated. In the position search ranges P1-1 to P1-7 in FIG. 11, the maximum normalized correlation value Cmax1 is the normalized correlation value C1-4 of the image acquired at the position P1-4. Next, positions P1-3 (Pmax-1) to P1-5 (Pmax + 1) before and after the position P1-4 are set as the position search range. Position search range P1-3 (Pmax-1)
The image is read at ~ P1-5 (Pmax + 1) and each position P
2-1-Normalized correlation value C2-1-of the image acquired at P2-7
C2-7 is calculated.

【0066】図11で位置探索範囲P2-1 〜P2-7 で最
大の正規化相関値Cmax2は、位置P2-2 で取得された画
像の正規化相関値C2-2 となる。この正規化相関値C2-
2 を最終的な最大正規化相関値Cmax2として、最大正規
化相関値Cmax2が得られる位置P2-2 にレンズステージ
103を移動させる。以上により、位置探索範囲P1-1
〜P1-7 では、最大の正規化相関値がCmax1であったも
のが、位置探索範囲P2-1 〜P2-7 により規格化相関値
Cmax1より大きい最大の正規化相関値Cmax2が得られ
る。よって、レンズの位置決めを正確に位置決めが行え
る。
In FIG. 11, the maximum normalized correlation value Cmax2 in the position search ranges P2-1 to P2-7 is the normalized correlation value C2-2 of the image acquired at the position P2-2. This normalized correlation value C2-
2 as the final maximum normalized correlation value Cmax2, the lens stage 103 is moved to a position P2-2 where the maximum normalized correlation value Cmax2 is obtained. As described above, the position search range P1-1
From P1 to P7, the maximum normalized correlation value is Cmax1, but the maximum normalized correlation value Cmax2 larger than the normalized correlation value Cmax1 is obtained from the position search ranges P2-1 to P2-7. Therefore, the lens can be accurately positioned.

【0067】なお、本実施例では、位置探索範囲の絞り
込みを1回としたが、回数を重ねることにより正確な位
置が可能となる。また、第1〜第3の実施例では、例え
ば、第1実施例の図3に示すようにステップS1−2〜
S1−6で、位置探索範囲内の画像を読み取り、全ての
画像がフレームバッファ121に格納された後に、ステ
ップS1−7〜S1ー12で正規化相関値Ciの算出を
行ったが、高速のCPUを用いることにより図3のステ
ップS1−2〜S1−6の位置探索範囲内の画像の読み
取りとステップS1−7〜S1ー12の正規化相関値C
iの算出とを並列に実行してもよい。
In this embodiment, the position search range is narrowed down to one time, but an accurate position can be obtained by repeating the number of times. Further, in the first to third embodiments, for example, as shown in FIG.
In S1-6, the images within the position search range are read, and after all the images are stored in the frame buffer 121, the normalized correlation values Ci are calculated in steps S1-7 to S1-12. By using the CPU, the reading of the image within the position search range in steps S1-2 to S1-6 in FIG. 3 and the normalized correlation value C in steps S1-7 to S1-12 are performed.
The calculation of i may be performed in parallel.

【0068】図12に本発明の第1実施例の変形例の動
作説明図を示す。図12(A)は画像読取のタイミン
グ、図12(B)はパターンマッチング、正規化相関値
算出処理のタイミングを示す。時刻t20で画像の読み取
りが開始されると、第1フレーム目の画像がフレームバ
ッファ121に格納される時刻t21で図12(B)に示
すように第1フレーム目の画像のパターンマッチング、
正規化相関値算出が行われる。図12(A)に示すよう
に第1フレーム目の画像のパターンマッチング、正規化
相関値算出が行われている間に、第2フレーム目の画像
がフレームバッファ121に読み込まれる。
FIG. 12 is an operation explanatory diagram of a modification of the first embodiment of the present invention. FIG. 12A shows the timing of image reading, and FIG. 12B shows the timing of pattern matching and normalized correlation value calculation processing. When reading of the image starts at time t20, pattern matching of the image of the first frame is performed at time t21 when the image of the first frame is stored in the frame buffer 121, as shown in FIG.
Normalized correlation value calculation is performed. The image of the second frame is read into the frame buffer 121 while the pattern matching and the normalized correlation value calculation of the image of the first frame are performed as shown in FIG.

【0069】図12(B)に示すように時刻t22で、第
1フレーム目の画像のパターンマッチング、正規化相関
値算出が完了すると、続けて、第2フレーム目の画像の
パターンマッチング、正規化相関値算出が行われる。図
12に示すようにパターンマッチング、正規化相関値算
出処理に比べて画像読取速度の方が早いので、時刻t23
で画像読取は終了し、時刻t24で正規化相関値算出処
理が終了することになる。しかしながら、画像読取の最
中に正規化相関値算出処理が行われることから、例え
ば、図4に示すように、画像読取が終了してから正規化
相関値算出処理を行う場合に比べて処理を短縮できる。
As shown in FIG. 12B, at time t22, when the pattern matching of the image of the first frame and the calculation of the normalized correlation value are completed, the pattern matching of the image of the second frame and the normalization are continued. Correlation value calculation is performed. As shown in FIG. 12, the image reading speed is faster than the pattern matching and the normalized correlation value calculation processing.
, The image reading ends, and the normalized correlation value calculation processing ends at time t24. However, since the normalized correlation value calculation processing is performed during the image reading, the processing is performed in comparison with the case where the normalized correlation value calculation processing is performed after the image reading is completed, for example, as illustrated in FIG. Can be shortened.

【0070】なお、図12では、第1実施例を並列処理
した場合について説明したが、当然第2、第3実施例に
も適用できる。
Although FIG. 12 illustrates the case where the first embodiment is processed in parallel, it is naturally applicable to the second and third embodiments.

【0071】[0071]

【発明の効果】上述の如く、本発明の請求項1によれ
ば、像に対する光学系の位置関係を制御して、所定の位
置探索範囲の画像を撮像し、撮像された画像と像に対し
て予め設定された画像とのずれに応じた評価値を算出
し、算出された評価値に応じて像に対する光学系の最適
位置を検出することにより、像の形状が複雑な場合で
も、その形状に応じて評価値が算出されるので、確実に
像の位置を検出できるので、像の位置に対する光学系の
位置関係を正確に検出できる等の特長を有する。
As described above, according to the first aspect of the present invention, the position of the optical system with respect to the image is controlled to capture an image in a predetermined position search range, and the captured image and the image By calculating an evaluation value according to the deviation from the image set in advance and detecting the optimum position of the optical system with respect to the image according to the calculated evaluation value, even if the shape of the image is complicated, Since the evaluation value is calculated in accordance with, the position of the image can be detected with certainty, so that the positional relationship of the optical system with respect to the position of the image can be accurately detected.

【0072】請求項2によれば、所定の位置探索範囲の
画像を連続的に撮像し、フレーム毎に画像を保持するこ
とにより、撮像位置を微細に移動、停止を繰り返す必要
がないので、撮像を短時間に行え、よって、全体の処理
時間を短縮できる等の特長を有する。請求項3によれ
ば、撮像過程と相関算出過程とを並列的に実行すること
により、撮像と相関計算とが同時に行われ、全体の処理
時間を短縮できる等の特長を有する。
According to the second aspect, the image of the predetermined position search range is continuously imaged, and the image is held for each frame, so that it is not necessary to repeatedly move and stop the imaging position minutely. Can be performed in a short time, and thus the overall processing time can be shortened. According to the third aspect, by executing the imaging process and the correlation calculation process in parallel, the imaging and the correlation calculation are performed simultaneously, and there is an advantage that the entire processing time can be reduced.

【0073】請求項4によれば、相関算出過程で算出さ
れた相関値のうち最大値の画像が撮像された位置を最適
位置と判定することにより、予め設定された画像に最も
相関する画像が得られる位置を最適位置と判定できるた
め、最適位置を確実に検出できる等の特長を有する。請
求項5によれば、正規化相関値の傾きを検出し、正規化
相関値の傾きが反転したときに、反転直前の相関値を最
大値として最大値の画像が撮像された位置を最適値と判
定することにより、全ての相関値が存在しなくても、最
大値の検出を行えるので、相関値の算出を省略でき、よ
って、高速な処理が可能となる等の特長を有する。
According to the fourth aspect, the position at which the image of the maximum value among the correlation values calculated in the correlation calculation process is taken as the optimum position is determined, so that the image most correlated with the preset image is determined. Since the obtained position can be determined as the optimum position, it has such features that the optimum position can be reliably detected. According to the fifth aspect, the slope of the normalized correlation value is detected, and when the slope of the normalized correlation value is inverted, the correlation value immediately before the inversion is set as the maximum value and the position where the image of the maximum value is captured is determined as the optimum value. As a result, even if all the correlation values do not exist, the maximum value can be detected, so that the calculation of the correlation value can be omitted, so that high-speed processing can be performed.

【0074】請求項6によれば、位置判定過程で判定さ
れた最適位置の周囲の所定の範囲を位置探索範囲に設定
し、設定された位置探索範囲に対して再び撮像過程、相
関算出過程、位置判定過程を実行することにより、位置
探索範囲を順次絞り込み、正確に最適位置を検出できる
等の特長を有する。請求項7によれば、像に対する光学
系の位置関係を制御して、所定の位置探索範囲の画像を
撮像手段により撮像し、評価値算出手段により撮像され
た画像と像に対して予め設定された画像とのずれに応じ
た評価値を算出し、位置判定手段により算出された評価
値に応じて像に対する光学系の最適位置を検出すること
により、像の形状が複雑な場合でも、その形状に応じて
評価値が算出されるので、確実に像の位置を検出できる
ので、像の位置に対する光学系の位置関係を正確に検出
できる等の特長を有する。
According to the present invention, a predetermined range around the optimum position determined in the position determination step is set as a position search range, and the imaging step, the correlation calculation step, By executing the position determination step, the position search range can be narrowed down sequentially, and the optimum position can be accurately detected. According to the seventh aspect, the positional relationship of the optical system with respect to the image is controlled, the image of the predetermined position search range is captured by the imaging unit, and the image and the image captured by the evaluation value calculation unit are set in advance. By calculating an evaluation value corresponding to the deviation from the image and detecting the optimum position of the optical system with respect to the image in accordance with the evaluation value calculated by the position determination unit, even if the image has a complicated shape, Since the evaluation value is calculated in accordance with, the position of the image can be detected with certainty, so that the positional relationship of the optical system with respect to the position of the image can be accurately detected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施例のブロック構成図である。FIG. 1 is a block diagram of a first embodiment of the present invention.

【図2】本発明の第1実施例の画像処理部のブロック構
成図である。
FIG. 2 is a block diagram of an image processing unit according to the first embodiment of the present invention.

【図3】本発明の第1実施例の画像処理部の処理フロー
チャートである。
FIG. 3 is a processing flowchart of an image processing unit according to the first embodiment of the present invention.

【図4】本発明の第1実施例の画像処理部の動作説明図
である。
FIG. 4 is an explanatory diagram of an operation of the image processing unit according to the first embodiment of the present invention.

【図5】本発明の第1実施例の画像処理部の動作説明図
である。
FIG. 5 is an explanatory diagram of an operation of the image processing unit according to the first embodiment of the present invention.

【図6】本発明の第1実施例の位置探索範囲に対する正
規化相関値の関係を示す図である。
FIG. 6 is a diagram illustrating a relationship between a normalized correlation value and a position search range according to the first embodiment of the present invention.

【図7】本発明の第2実施例の画像処理部の処理フロー
チャートである。
FIG. 7 is a processing flowchart of an image processing unit according to a second embodiment of the present invention.

【図8】本発明の第2実施例の動作説明図である。FIG. 8 is an operation explanatory diagram of the second embodiment of the present invention.

【図9】本発明の第2実施例の動作説明図である。FIG. 9 is an operation explanatory diagram of the second embodiment of the present invention.

【図10】本発明の第3実施例の画像処理部の処理フロ
ーチャートである。
FIG. 10 is a processing flowchart of an image processing unit according to a third embodiment of the present invention.

【図11】本発明の第3実施例の動作説明図である。FIG. 11 is an operation explanatory diagram of the third embodiment of the present invention.

【図12】本発明の第1実施例の変形例の動作説明図で
ある。
FIG. 12 is an operation explanatory diagram of a modification of the first embodiment of the present invention.

【図13】双方向光通信ユニットの構成図である。FIG. 13 is a configuration diagram of a bidirectional optical communication unit.

【図14】従来のレンズ位置検出方法を説明するための
図である。
FIG. 14 is a diagram for explaining a conventional lens position detection method.

【図15】輝度分散によるレンズ位置評価方法を説明す
るための図である。
FIG. 15 is a diagram for explaining a lens position evaluation method based on luminance dispersion.

【符号の説明】[Explanation of symbols]

1 双方向光通信ユニット 2 光ファイバケーブル 11 LDパッケージ 11a 発光素子 11b 受光素子 11c パッケージ 12 レンズパッケージ 12a レンズ 12b ホルダ 13 プリズム部 13a プリズム 13b 全反射ミラー 13c ハーフミラー 100 自動レンズ調整装置 101 LDステージ 102 LDステージコントローラ 103 レンズステージ 104 レンズステージコントローラ 105 顕微鏡 106 照明光源 107 CCDカメラ 108 カメラステージ 109 カメラステージコントローラ 110 画像処理装置 111 TVモニタ 112 メインコントローラ Reference Signs List 1 bidirectional optical communication unit 2 optical fiber cable 11 LD package 11a light emitting element 11b light receiving element 11c package 12 lens package 12a lens 12b holder 13 prism unit 13a prism 13b total reflection mirror 13c half mirror 100 automatic lens adjusting device 101 LD stage 102 LD Stage controller 103 Lens stage 104 Lens stage controller 105 Microscope 106 Illumination light source 107 CCD camera 108 Camera stage 109 Camera stage controller 110 Image processing device 111 TV monitor 112 Main controller

───────────────────────────────────────────────────── フロントページの続き (72)発明者 矢吹 彰彦 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 (72)発明者 小森谷 均 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 (72)発明者 肥塚 哲男 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Akihiko Yabuki 4-1-1 Kamikodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa Prefecture Inside Fujitsu Limited (72) Inventor Hitoshi Komoriya 4-1-1 Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa No. 1 Inside Fujitsu Limited (72) Inventor Tetsuo Hizuka 4-1-1 Kamikodanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Inside Fujitsu Limited

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 光学系との位置関係を調整しようとする
像を該光学系を介して撮像し、撮像結果に応じて該像に
対する該光学系の位置を検出する自動位置検出方法にお
いて、 前記像に対する前記光学系の位置関係を制御して、所定
の位置探索範囲の画像を撮像する撮像過程と、 前記撮像過程で撮像された画像と前記像に応じて予め設
定された所定の画像との相関に応じた評価値を算出する
評価値算出過程と、 前記評価値算出過程で算出された評価値に応じて該像に
対する該光学系の最適位置を検出する位置判定過程とを
有することを特徴とする自動位置検出方法。
1. An automatic position detection method for capturing an image whose positional relationship with an optical system is to be adjusted through the optical system, and detecting a position of the optical system with respect to the image according to a captured result. Controlling the positional relationship of the optical system with respect to an image, an image capturing step of capturing an image in a predetermined position search range, and an image captured in the image capturing step and a predetermined image set in advance according to the image. An evaluation value calculating step of calculating an evaluation value according to the correlation; and a position determining step of detecting an optimum position of the optical system with respect to the image according to the evaluation value calculated in the evaluation value calculating step. Automatic position detection method.
【請求項2】 前記撮像過程は、前記所定の位置探索範
囲の画像を連続的に撮像することを特徴とする請求項1
記載の自動位置検出方法。
2. The image capturing step according to claim 1, wherein the image of the predetermined position search range is continuously captured.
Automatic position detection method as described.
【請求項3】 前記撮像過程と前記評価値算出過程とを
並列的に実行することを特徴とする請求項1記載の自動
位置検出方法。
3. The automatic position detecting method according to claim 1, wherein the imaging step and the evaluation value calculating step are performed in parallel.
【請求項4】 前記位置判定過程は、前記評価値算出過
程で算出された評価値のうち最大値の画像が撮像された
位置を前記最適位置と判定することを特徴とする請求項
1乃至3のいずれか一項記載の自動位置検出方法。
4. The method according to claim 1, wherein the position determining step determines a position at which an image having a maximum value among the evaluation values calculated in the evaluation value calculating step is captured as the optimum position. 6. The automatic position detection method according to claim 1.
【請求項5】 前記位置判定過程は、前記相関算出過程
で算出された評価値の傾きを検出し、該評価値の傾きが
反転したときに、該反転直前の評価値を最大値として該
最大値の画像が撮像された位置を前記最適値と判定する
ことを特徴とする請求項1乃至3のいずれか一項記載の
自動位置検出方法。
5. The position determination step detects a slope of the evaluation value calculated in the correlation calculation step, and when the slope of the evaluation value is inverted, sets the evaluation value immediately before the inversion to a maximum value. 4. The automatic position detecting method according to claim 1, wherein a position at which a value image is captured is determined as the optimum value.
【請求項6】 前記位置判定過程で判定された前記最適
位置の周囲の所定の範囲を位置探索範囲に設定する位置
探索範囲設定過程を有し、 前記位置探索範囲設定過程で、設定された位置探索範囲
に対して前記撮像過程、前記評価値算出過程、位置判定
過程を実行することを特徴とする請求項1乃至5のいず
れか一項記載の自動位置検出方法。
6. A position search range setting step of setting a predetermined range around the optimum position determined in the position determination step as a position search range, wherein the position set in the position search range setting step is set. 6. The automatic position detecting method according to claim 1, wherein the image capturing step, the evaluation value calculating step, and the position determining step are performed on a search range.
【請求項7】 光学系との位置関係を調整しようとする
像を該光学系を介して撮像し、撮像結果に応じて該像に
対する該光学系の位置を検出する自動位置検出装置にお
いて、 前記像に対する前記光学系の位置関係を制御して、所定
の位置探索範囲の画像を撮像する撮像手段と、 前記撮像手段で撮像された画像と前記像に応じて予め設
定された所定の画像との相関に応じた評価値を算出する
評価値算出手段と、 前記評価値算出手段で算出された評価値に応じて該像に
対する該光学系の最適位置を検出する位置判定手段とを
有することを特徴とする自動位置検出装置。
7. An automatic position detecting device for capturing an image whose positional relationship with an optical system is to be adjusted through the optical system, and detecting a position of the optical system with respect to the image according to a captured result. An image capturing unit that controls a positional relationship of the optical system with respect to an image to capture an image in a predetermined position search range, and an image captured by the image capturing unit and a predetermined image set in advance according to the image. Evaluation value calculation means for calculating an evaluation value according to the correlation; andposition determination means for detecting an optimum position of the optical system with respect to the image according to the evaluation value calculated by the evaluation value calculation means. Automatic position detection device.
JP23856997A 1997-09-03 1997-09-03 Automatic position detection method and automatic position detection device Pending JPH1184223A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23856997A JPH1184223A (en) 1997-09-03 1997-09-03 Automatic position detection method and automatic position detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23856997A JPH1184223A (en) 1997-09-03 1997-09-03 Automatic position detection method and automatic position detection device

Publications (1)

Publication Number Publication Date
JPH1184223A true JPH1184223A (en) 1999-03-26

Family

ID=17032180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23856997A Pending JPH1184223A (en) 1997-09-03 1997-09-03 Automatic position detection method and automatic position detection device

Country Status (1)

Country Link
JP (1) JPH1184223A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003533673A (en) * 2000-02-10 2003-11-11 ナノフォーカス メステヒニーク ゲゼルシャフト ミツト ベシュレンクテル ハフツング Method and apparatus for forming technical surface height images at microscopic resolution
JP2006023494A (en) * 2004-07-07 2006-01-26 Nikon Corp Microscope observation image acquisition method and microscope system
JP2006171574A (en) * 2004-12-17 2006-06-29 Olympus Corp Microscope image processing method, microscope image processing program and microscope system
JP2007526457A (en) * 2004-03-01 2007-09-13 イアティア イメージング プロプライアタリー リミティド Method and apparatus for generating image including depth information
JP2011175266A (en) * 2011-03-17 2011-09-08 Olympus Corp Microscope system, method for controlling operation of the same, and recording medium with operation control program recorded therein
JP2023160428A (en) * 2022-04-22 2023-11-02 横河電機株式会社 Information processing device, information processing system, information processing method, and information processing program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003533673A (en) * 2000-02-10 2003-11-11 ナノフォーカス メステヒニーク ゲゼルシャフト ミツト ベシュレンクテル ハフツング Method and apparatus for forming technical surface height images at microscopic resolution
JP2007526457A (en) * 2004-03-01 2007-09-13 イアティア イメージング プロプライアタリー リミティド Method and apparatus for generating image including depth information
JP2006023494A (en) * 2004-07-07 2006-01-26 Nikon Corp Microscope observation image acquisition method and microscope system
JP2006171574A (en) * 2004-12-17 2006-06-29 Olympus Corp Microscope image processing method, microscope image processing program and microscope system
JP2011175266A (en) * 2011-03-17 2011-09-08 Olympus Corp Microscope system, method for controlling operation of the same, and recording medium with operation control program recorded therein
JP2023160428A (en) * 2022-04-22 2023-11-02 横河電機株式会社 Information processing device, information processing system, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
CN211669428U (en) Automatic focusing device based on inner coaxial vision
EP1333667A1 (en) Iris imaging apparatus
EP2916160B1 (en) Image acquisition device and method for focusing image acquisition device
US20120072170A1 (en) Vision measurement probe and method of operation
KR20010033900A (en) Electronics assembly apparatus with stereo vision linescan sensor
US6291817B1 (en) Moire apparatus having projection optical system and observation optical system which have optical axes parallel to each other
WO2000075713A9 (en) Method/system measuring object features with 2d and 3d imaging coordinated
JP2023176026A (en) Method for determining scan range
JPH1184223A (en) Automatic position detection method and automatic position detection device
EP2947488B1 (en) Image acquisition device and focus method for image acquisition device
CN114234835B (en) Testing equipment and testing methods
JPH1123952A (en) Automatic focusing device and laser beam machining device using the same
WO2010137637A1 (en) Shape measuring device, shape measuring method, and production method
CN205622736U (en) Automatic focusing arrangement
JP2001311866A (en) Autofocus method and apparatus for microscope
JP7229439B1 (en) Tilt Estimation System, Tilt Estimation Method, Tilt Estimation Program, Semiconductor Inspection System, and Living Body Observation System
CN115876162A (en) Image measuring method, computing device and computer readable storage medium
JP2664424B2 (en) Laser processing machine
CN222867000U (en) Automatic focusing device of high-precision projection exposure machine
JP2013088570A (en) Microscope apparatus
JPH10209502A (en) Optical axis adjusting device and optical axis adjusting method
JP2005148860A (en) Programmable logic controller and image autofocus module used therefor
US20260079335A1 (en) Metrology system utilizing scan lens for points-from-focus type processes
JP2003077141A (en) Optical head adjustment device
JPH06277864A (en) Laser beam machining device

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20040824

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070112

A131 Notification of reasons for refusal

Effective date: 20070227

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070501

A02 Decision of refusal

Effective date: 20070710

Free format text: JAPANESE INTERMEDIATE CODE: A02