JPH03224075A - Aligning method in image processing - Google Patents

Aligning method in image processing

Info

Publication number
JPH03224075A
JPH03224075A JP2019998A JP1999890A JPH03224075A JP H03224075 A JPH03224075 A JP H03224075A JP 2019998 A JP2019998 A JP 2019998A JP 1999890 A JP1999890 A JP 1999890A JP H03224075 A JPH03224075 A JP H03224075A
Authority
JP
Japan
Prior art keywords
image
digital image
processed
model
digital
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019998A
Other languages
Japanese (ja)
Inventor
Morihiko Shibata
守彦 柴田
Takao Tomita
隆夫 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHOKUHIN SANGYO ONRAIN SENSOR GIJUTSU KENKYU KUMIAI
Original Assignee
SHOKUHIN SANGYO ONRAIN SENSOR GIJUTSU KENKYU KUMIAI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHOKUHIN SANGYO ONRAIN SENSOR GIJUTSU KENKYU KUMIAI filed Critical SHOKUHIN SANGYO ONRAIN SENSOR GIJUTSU KENKYU KUMIAI
Priority to JP2019998A priority Critical patent/JPH03224075A/en
Publication of JPH03224075A publication Critical patent/JPH03224075A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To accelerate a required processing processing time and to improve accuracy in binary image processing by dividing the image of a model and a digital image that it an object to be processed into plural areas, and using feature quantities in the areas when they are compared with each other. CONSTITUTION:An image pickup part 1 photographs the object 2 to be processed, and a signal conversion part 6 converts an analog image signal from the image pickup part 1 to a digital image signal, and a feature quantity extraction part 9 extracts the feature quantity of digital image data from the signal conversion part 6. The video signal of an image that becomes the model and that of the image that becomes the object to be processed are digitized, and digitized images are divided into a prescribed number of areas, and the alignment of the model and the digital image that is the object to be processed are performed setting the feature quantity of the area as reference, and after that, the inspection and the identification of the object to be processed are performed. In such a way, it is possible to accurately perform the alignment and to perform the inspection of the object and to accelerate the stroke of the identification.

Description

【発明の詳細な説明】 〔発明の対象技術分野〕 この発明は画像処理における位置合せ方法に係り、とく
にモデル画像と処理対象との位置合せに関するものであ
る。
DETAILED DESCRIPTION OF THE INVENTION [Technical field to which the invention is directed] The present invention relates to an alignment method in image processing, and particularly relates to alignment between a model image and a processing target.

〔従来技術〕[Prior art]

従来の画像処理において、まず画像の位置合せの機能、
すなわちモデルとなる画像とこのモデル画像に対して比
較する対象画像との位置合せの機能は画像処理装置自体
に位置合せ機能をもたずに外部のマテリアルハンドリン
グ技術に頬るものが少なくない。その1例として画像内
のひじょうに特徴的な部分に対応させて位置合せ用のウ
ィンドウを設け、そのウィンドウを対象画像内でサーチ
させ、特徴的な部分を見つけ、そのウィンドウからのオ
フセットで画像内でサーチさせて、特徴的な部分を見つ
け、そのウィンドウからのオフセットで画像内での検査
対象箇所を捜す方法がある。
In conventional image processing, the first function is image alignment,
In other words, in many cases, the function of positioning an image serving as a model and a target image to be compared with the model image does not have a positioning function within the image processing apparatus itself, but relies on external material handling technology. One example is setting up a window for positioning that corresponds to a very characteristic part in the image, searching that window in the target image, finding the characteristic part, and adjusting the position in the image by offset from that window. There is a method of searching, finding a characteristic part, and using an offset from that window to find the inspection target part in the image.

しかしこの方法はサーチさせる特徴的な部分が存在する
必要があり、位置合せの精度としても高くない。またこ
れは多くのばあい2値画像処理にて使われている。
However, this method requires the existence of a characteristic part to be searched, and the alignment accuracy is not high. It is also often used in binary image processing.

さらに位置合せの手法として相関法や5SDA法などが
有名であるが、これらはいずれも膨大な画素間演算であ
るため計算に多(の時間を要し、汎用の処理装置にはあ
まり応用されない。
Further, although the correlation method and the 5SDA method are well-known as alignment methods, these methods require a large amount of calculation time and are not often applied to general-purpose processing devices.

一方対象画像の検査や識別に関し、従来の画像処理の中
でもっとも多いのはウィンドウ内画素カウント方式いわ
ゆるマルチウィンドウ方式、SRIアルコリズム方式、
テンブレードマツチング方式の3つでいずれも2値画像
処理のため良好な2値画像が得られるということが大前
提となっており、とくにコントラストの良い対象物には
有効であっても表面状態の検査などには不向きである。
On the other hand, regarding inspection and identification of target images, the most common conventional image processing methods are the in-window pixel counting method, the so-called multi-window method, the SRI algorithm method,
All three ten-blade matching methods use binary image processing, so the main premise is that a good binary image can be obtained. It is not suitable for testing.

また他の濃淡画像処理装置やカラー画像処理装置では扱
う情報量が多いので機能的には高いものの、多くのデー
タを高速処理するため専用のプロセッサーやハードウェ
アを必要とし、いきおい高価となる欠点がある。
In addition, other grayscale image processing devices and color image processing devices handle a large amount of information, so although they are highly functional, they require dedicated processors and hardware to process large amounts of data at high speed, making them extremely expensive. be.

[発明の目的] この発明はこのような従来の問題点にかんがみ、2値画
像処理における所要時間および精度を改善することを目
的とする。
[Object of the Invention] In view of such conventional problems, it is an object of the present invention to improve the time required and accuracy in binary image processing.

〔発明の概要〕[Summary of the invention]

この発明はその目的を達成するために従来の2値画像処
理に代え濃淡画像処理を採用するとともに、モデルとな
る画像および処理対象となる画像の映像信号をディジタ
ル化し、このディジタル化した画像を所定の領域に分割
し、この領域毎の特微量を基準としてモデルおよび処理
対象のディジタル画像の位置合せをし、その上で処理対
象の検査や識別をするもので、高速処理を可能とするも
のである。
In order to achieve the object, this invention adopts grayscale image processing in place of conventional binary image processing, digitizes the video signals of the model image and the image to be processed, and converts this digitized image into a predetermined image. The digital image is divided into two regions, the model and the digital image to be processed are aligned based on the characteristic quantities of each region, and the object to be processed is then inspected and identified.This enables high-speed processing. be.

〔実施例〕〔Example〕

以下図を参照してこの発明の1実施例について説明する
An embodiment of the present invention will be described below with reference to the drawings.

すなわち第1図において撮像部またとえばカメラは処理
対象2を撮影するものである。なお処理対象2としては
たとえば第3図に示すように乳製品の紙容器の胴部に捺
印された製造工場の住所等の捺印部4の印字である。そ
して撮像機1は画像処理装置5に接続される。この処理
装置において信号変換部6は撮像部1からのアナログ画
像信号をディジタル画像信号に変換するとともに、その
入力信号に微分等の前処理を施す機能を有し、さらにそ
のディジタル信号をふたたびアナログ信号に変えてモニ
ター7に出力する機能を有している。
That is, in FIG. 1, the imaging unit, for example a camera, is for photographing the processing object 2. In FIG. The processing target 2 is, for example, the printing of a stamp 4 such as the address of a manufacturing factory stamped on the body of a paper container for dairy products, as shown in FIG. The imaging device 1 is then connected to an image processing device 5. In this processing device, the signal conversion unit 6 has the function of converting the analog image signal from the imaging unit 1 into a digital image signal, and also performs preprocessing such as differentiation on the input signal, and converts the digital signal back into an analog signal. It has a function to output to the monitor 7 instead of

また特徴量抽出部9は信号変換部6からのディジタル画
像データの特徴量を抽出する機能を有する。
Further, the feature amount extracting section 9 has a function of extracting the feature amount of the digital image data from the signal converting section 6.

フレームメモリ10は特徴量抽出部9によって抽出され
たデータを記憶する。これらの各部は演算制御部13に
接続され、この演算制御部によって制御される。入出力
部14は外部からのトリガー信号を受けたり、演算制御
部13による判定結果を外部に出力する機能を有する。
The frame memory 10 stores the data extracted by the feature extracting section 9. Each of these parts is connected to the calculation control section 13 and controlled by this calculation control section. The input/output section 14 has a function of receiving a trigger signal from the outside and outputting a determination result by the calculation control section 13 to the outside.

また演算制御部13にはこの処理作業に必要なメモリー
15が接続される。
Further, a memory 15 necessary for this processing work is connected to the arithmetic control section 13.

次に第2図を参照して処理対象の画像処理方法について
説明する。
Next, a method for processing an image to be processed will be described with reference to FIG.

まず撮像部1によってモデルすなわち良品サンプルの画
像を撮影し、この画像データすなわちアナログ信号を信
号変換部6に送る(ステップ1)。
First, an image of a model, that is, a non-defective sample is photographed by the imaging section 1, and this image data, that is, an analog signal, is sent to the signal converting section 6 (step 1).

このとき入力されるモデルの画像すなわちモデルとする
捺印部4の領域の大きさは第4図に示すように全画像サ
イズをNXMとしたとき、nXmの画素のサイズであり
、それぞれの寸法的関係はN>n  M>mである。そ
して信号変換部6においてモデルの画像データはディジ
タル信号に変換さらる。これによってモデルの画像入力
がなされる。
The image of the model input at this time, that is, the size of the area of the stamping part 4 used as the model, is the pixel size of nXm when the total image size is NXM, as shown in FIG. is N>n M>m. Then, the image data of the model is converted into a digital signal in the signal conversion section 6. In this way, the image of the model is input.

次にこの入力されたモデルのディジタル画像すなわちn
xmの大きさの画像を所定の大きさの小領域すなわち第
5図に示すように、aXb画素の矩形の小頭域21に分
割し、各小領域毎の特徴量を算出する(ステップ2)。
Next, the digital image of this input model, i.e. n
The image of size xm is divided into small regions of a predetermined size, that is, rectangular small head regions 21 of aXb pixels as shown in FIG. 5, and the feature amount for each small region is calculated (step 2). .

なおこの発明において特徴量とは所定の大きさのディジ
タル画像を所定の大きさをもって複数個の領域に分割し
、この各領域内における複数画素の濃度を累積して得ら
れるその領域ごとの特徴的な値であって、このばあい各
小領域内における微分濃度の累積値を用いる。この微分
には第6図に示す各画素20.20のオペレーターおよ
び次の式を用いる。
Note that in this invention, the feature amount is the characteristic value of each region obtained by dividing a digital image of a predetermined size into multiple regions with a predetermined size and accumulating the density of multiple pixels within each region. In this case, the cumulative value of the differential concentration within each small region is used. This differentiation uses the operators for each pixel 20 and 20 shown in FIG. 6 and the following equation.

f’(x、y)=  l f(x、y)−f(x、y−
1)+1f(x、い−f(x−Ly) そしてその累積値は第7図に示す微分値計算回路におい
てディジタル微分で算出される。この図においてディジ
タル画像データはIH遅延回路25と1Pix遅延回路
26に入力されるとともに差分絶対値回路27.28に
入力され、かつIH遅延回路25の出力は差分絶対値回
路27に、またIPix遅延回路26の出力は差分絶対
値回路2日にそれぞれ入力される。さらに差分絶対値回
路27.28の出力は加算器29により加算されてディ
ジタル微分画像として出力される。
f'(x,y)=l f(x,y)-f(x,y-
1) +1f(x, i-f(x-Ly)) Then, the cumulative value is calculated by digital differentiation in the differential value calculation circuit shown in FIG. The output of the IH delay circuit 25 is input to the difference absolute value circuit 27, and the output of the IPix delay circuit 26 is input to the difference absolute value circuit 27 and 28 as well as to the circuit 26. Furthermore, the outputs of the difference absolute value circuits 27 and 28 are added by an adder 29 and output as a digital differential image.

なおこの微分値計算回路の詳細についてはその説明を省
略する。
Note that a detailed explanation of this differential value calculation circuit will be omitted.

ディジタル微分画像データは第8図に示す特徴量抽出回
路によってその累積値が計算される。この特徴量抽出回
路は複数のラインメモリLml〜Lm5を有し、このラ
インメモリには書込みタロツク発生器31、書込みイネ
ーブル制御回路32、読出しクロック発生器33、読出
しイネーブル制御回路34、画素積和回路35が接続さ
れる。
The cumulative value of the digital differential image data is calculated by the feature extracting circuit shown in FIG. This feature quantity extraction circuit has a plurality of line memories Lml to Lm5, which include a write tarlock generator 31, a write enable control circuit 32, a read clock generator 33, a read enable control circuit 34, and a pixel product-sum circuit. 35 are connected.

ディジタル微分画像データは所定の画像素ザイズたとえ
ば256X240画素の画面を有している。そしてこの
画面は所定の数の画素たとえば5×5画素の小領域に分
割される。そのディジタル画像はそのサイズから240
本の走査線から構成されるが、この走査線がラインメモ
リLml〜Lm5にその走査順に各ラインメモリの頭か
ら書込まれる。続いて第6木目から第10木目の走査線
は順にLml〜Lm5の各ラインメモリの後半部に書込
まれる。次に第11本口から第15本口の走査線はふた
たびLml〜Lm5の各ラインメモリの前半部に書込ま
れる。このように書込みは走査線単位に5本のラインメ
モリの前半および後半にサイクリックに書込まれてい(
(第9図イ)。
The digital differential image data has a screen having a predetermined pixel size, for example, 256×240 pixels. This screen is then divided into small areas of a predetermined number of pixels, for example, 5×5 pixels. The digital image has a size of 240
The scanning line is composed of the scanning lines of a book, and these scanning lines are written into the line memories Lml to Lm5 in the scanning order from the beginning of each line memory. Subsequently, the scanning lines from the 6th grain to the 10th grain are sequentially written into the latter half of each line memory Lml to Lm5. Next, the scanning lines from the 11th main port to the 15th main port are written in the first half of each line memory Lml to Lm5 again. In this way, writing is performed cyclically in the first half and second half of the five line memories in units of scanning lines (
(Figure 9a).

次に読出しは書込みより5走査線分遅れて始まり、続出
しクロックはラインメモリLml  Lm2Lm3.L
m4.Lm5.Lml  Lm2  Lm3、・・・と
画素単位に5本のラインメモリをサイツクリックに走査
する。このようにして入力時とは順番の変った画素デー
タ(第9図口)が25画累積和回路35に入力され、小
領域毎の特徴量が抽出される。そして最終的に入力画素
データに対し5走査線分遅れて小領域内特徴量がリアル
タイムに算出される。
Next, reading starts five scanning lines later than writing, and successive clocks are used for line memories Lml, Lm2, Lm3, . L
m4. Lm5. Lml Lm2 Lm3, . . . five line memories are scanned pixel by pixel. In this way, the pixel data whose order has changed from that at the time of input (Fig. 9) is input to the 25-pixel cumulative sum circuit 35, and the feature amount for each small area is extracted. Finally, the small area feature amount is calculated in real time with a delay of 5 scanning lines relative to the input pixel data.

次に第10図のX印で示すようにモデルのディジタル画
像の9近傍または25近傍のローカルセル間における特
徴量を算出する(ステップ3)。
Next, as indicated by the X marks in FIG. 10, feature quantities between local cells in the 9th or 25th neighborhood of the digital image of the model are calculated (step 3).

すなわち第10図に示すように小頭域21.21を複数
個すなわち横A個、′@iB個統合した中領域22を形
成する。この図においては横3個、縦3個の小領域21
.21により1つの中領域を形成している。そしてこの
中領域内の特徴量を算出する。さらにこのとき第2の位
置合せ、すなわち正確な位置合せのために近傍中領域に
おけるデータ算出も行う。その近傍中領域データは第1
1図に示すようにその中領域の元になる小領域21内の
画素単位でずらせた新たな小領域を統合して形成した中
領域22によるデータである。なおこれらの計算は第1
図に示す演算制御部13により行われる。
That is, as shown in FIG. 10, a middle region 22 is formed by integrating a plurality of small head regions 21, 21, ie, A horizontally and '@iB. In this figure, there are three small areas 21 horizontally and three vertically.
.. 21 forms one middle region. Then, the feature amount within this middle region is calculated. Furthermore, at this time, data calculation in the nearby medium area is also performed for second positioning, that is, accurate positioning. The neighboring medium area data is the first
As shown in FIG. 1, this data is based on a medium area 22 formed by integrating new small areas shifted in pixel units within a small area 21 that is the source of the medium area. Note that these calculations are based on the first
This is performed by the calculation control section 13 shown in the figure.

次に検査ないし識別の対象すなわち処理対象となるディ
ジタル画像の入力を行う。すなわち処理対象となるディ
ジタル画像を第4図に示すNXMの全画像サイズで入力
する。
Next, a digital image to be inspected or identified, ie, to be processed, is input. That is, a digital image to be processed is input at the full image size of NXM shown in FIG.

続いて処理対象となるディジタル画像の小頭域21内の
特徴量を抽出する。すなわちモデルのディジタル画像に
おける小領域内の特徴量と同様に対象となるディジタル
画像においてもその小領域内の特徴量を同一小領域サイ
ズで算出する。この計算は第1図、第7図及び第8図に
示すハードウェアにより行なわれる。
Next, the feature amount within the small head area 21 of the digital image to be processed is extracted. That is, in the same way as the feature amount within the small area in the digital image of the model, the feature amount within the small area in the target digital image is calculated using the same small area size. This calculation is performed by the hardware shown in FIGS. 1, 7, and 8.

次にモデルと処理対象となるディジタル画像の第1の位
置合せを行う。すなわちこの位置合せは両画像の小領域
を利用した粗い位置合せである(ステップ6)。
Next, a first alignment is performed between the model and the digital image to be processed. That is, this alignment is a rough alignment using small areas of both images (step 6).

一般に画像処理おいてはトリガ入力により同一タイミン
グ、同一位置で動いているものの画像を取込むことは難
しく、全体画像の中、注目する部分すなわち検査や識別
する箇所がどこにあるかをソフトウェアによる位置合せ
で行う必要がしばしば生じる。そこでこの実施例におい
ては第12図に示すようにモデルと処理対象のディジタ
ル画像における小頭域21内の特徴量を用いた5SDA
法によって行っている。この5SDA法は通常画素の濃
度値を用いて画素単位で行われるため計算に膨大な時間
を要する。その計算時間を短縮する方法としては画素飛
ばしのコース−ファイン(coarse−f 1ne)
法などがあるが精度の点に問題がある。この発明におい
ては小頭域21内の特徴量すなわち微分値の和を用いて
いる。
In general, in image processing, it is difficult to capture images of moving objects at the same timing and position using a trigger input, so software is used to align the parts of the entire image that are of interest, i.e., where to inspect or identify them. It is often necessary to do so. Therefore, in this embodiment, as shown in FIG.
It is done by law. Since this 5SDA method is normally performed pixel by pixel using the density value of the pixel, it takes an enormous amount of time to calculate. One way to shorten the calculation time is to skip pixels using coarse-fine (coarse-f 1ne).
There are some methods, but they have problems with accuracy. In this invention, the sum of feature amounts, ie, differential values, within the capitula 21 is used.

次に対象のディジタル画像の小領域22を算出する。す
なわち第1の位置合せの後、モデルと処理対象のディジ
タル画像とを同一の中領域サイズにて中領域22の算出
すなわち小頭域21の統合を行う。なおここではモデル
のばあいのように近傍中領域の算出は行わない(ステッ
プ7)。
Next, a small area 22 of the target digital image is calculated. That is, after the first alignment, the middle region 22 is calculated, that is, the small head region 21 is integrated using the same middle region size for the model and the digital image to be processed. Note that, unlike in the case of the model, calculation of the neighborhood medium area is not performed here (step 7).

次にモデルと処理対象のディジタル画像の小領域22を
利用して第2の位置合せを行う。すなわち先に計算した
モデルのディジタル画像の9近傍または25近傍のロー
カルセル内における特徴量を用いてさらに正確な位置合
せを行う。この第2の位置合せは第10図のX印で示す
9近傍なら9組の、また25近傍なら25組の中領域デ
ータをモデルと対象とでその中領域対応で比べ、もっと
も対象と似かよった近傍モデルの位置を正確な位置とす
る。具体的にはたとえば対応する中領域で処理対象のデ
ータとモデルのデータとの差の絶対値のモデルの値に対
する比を計算し、全中領域での累積計算を行う。9組あ
るいは25mの近傍のうちもっとも累積値の小さい位置
を正確な位置合せとする方法が考えられる(ステップ8
)。
Next, a second alignment is performed using the model and the small area 22 of the digital image to be processed. That is, more accurate positioning is performed using feature amounts in the 9 or 25 local cells of the previously calculated digital image of the model. This second alignment is performed by comparing the mid-region correspondence between the model and the target using 9 sets of mid-region data for 9 neighborhoods, or 25 sets of mid-region data for 25 neighbors, as indicated by the X marks in Figure 10, and finds the one that is most similar to the target. The position of the neighboring model is set as the accurate position. Specifically, for example, the ratio of the absolute value of the difference between the data to be processed and the model data in the corresponding middle region to the model value is calculated, and the cumulative calculation is performed for all the middle regions. A method can be considered in which the position with the smallest cumulative value among the 9 pairs or 25 m neighborhood is determined as accurate alignment (step 8).
).

次にモデルと対象の中領域比較による検査を行う。すな
わち第2の位置合せの後、対応中領域でモデルと処理対
象とで特徴量の比較を行う。当然モデルは第2の位置合
せて最も近似した近傍のデータを用いる。比較の際の上
下限しきい値を設定することにより判定レヘルを調節で
きる。また判定しきい値は中領域毎に異なる値も設定で
きる(ステップ9)。
Next, an inspection is performed by comparing the middle region of the model and the target. That is, after the second alignment, feature amounts are compared between the model and the processing target in the corresponding region. Naturally, the model uses the data of the closest neighbors in the second alignment. The determination level can be adjusted by setting upper and lower thresholds for comparison. Further, the determination threshold value can be set to a different value for each medium region (step 9).

なお小領域21、中領域22内の特徴量として微分濃度
値の累積値を用いたものについて説明したが、これ以外
にモデルおよび対象の原画の濃度値の累積値や方向別微
分値の累積値、ある範囲内の原画濃度あるいは微分濃度
をもつ画素の数、または原画濃度ヒストグラムのもつ特
徴量すなわち山の数や最大傾斜などを採用することがで
きる。
Although we have described the case where the cumulative value of the differential density value is used as the feature quantity in the small region 21 and the medium region 22, in addition to this, the cumulative value of the density value of the model and the target original image and the cumulative value of the differential value by direction are also used. , the number of pixels having original image density or differential density within a certain range, or the feature amount of the original image density histogram, such as the number of peaks or the maximum slope.

〔発明の効果〕〔Effect of the invention〕

この発明は上述のようにモデルと処理対象のディジタル
画像を比較するのにそれらの画像を複数の領域に分割し
、その両域内の特徴量を用いているので両者の位置合せ
が正確で、かつ対象の検査や識別の行程を高速で行うこ
とができる。また特徴量を用いた画像処理はコントラス
トのさほど強くない表面検査等に適し、と(にその特徴
量として微分累積値を用いるものにあっては周囲の明る
さの変動を受は難く、たとえば捺印検査では潰れた捺印
もまた捺印の欠落部も微分値としては同じように小さい
値をとるので不良要素の検出が容易である。
As described above, this invention divides the images into a plurality of regions to compare the model and the digital image to be processed, and uses the feature amounts in both regions, so that the alignment of the two is accurate and The process of inspecting and identifying objects can be performed at high speed. In addition, image processing using feature quantities is suitable for surface inspections where the contrast is not very strong; In inspection, defective elements can be easily detected because the differential values of crushed stamps and missing stamp parts are similarly small.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明における画像処理装置の1実施例を示
すブロック図、第2図は画像処理の流れ図、第3図は検
査あるいは識別をするための対象の外観斜視図、第4図
は処理対象の捺印領域を示す正面図、第5回は第4図の
捺印領域を小領域に分割した状態の平面図、第6図は1
画素の微分処理に関わる画素20.20の座標を示す図
、第7図は微分値計算回路のブロック図、第8図は小領
域内の特徴量抽出回路のブロック図、第9図はラインメ
モリの入力時と出力時の順番を示す説明図、第10図は
9近傍中領域算出時の任意注目画素と小領域との位置関
係を示す関係図、第11図は中領域と小領域との関係を
示す説明図、第12図は小領域を用いた5SDA法の説
明図である。 1・・・撮像部 2・・・処理対象 4・・・捺印部 5・・・画像処理装置 6・・・信号変換部 7・・・モニター 9・・・特徴量抽出部 10・・・ フレームメモリ 13・・・演算制御部 14・・・入出力部 15・・・メモリー 20・・・画素 21・・・小領域 25・・・ 1水平ライン遅延回路 26・・・ 1画素遅延回路 27・・・差分絶対値回路 28・・・差分絶対値回路 29・・・加算器 Lml〜Lm5・・・ ラインメモリ 31・・・クロック発生器 32・・・書込みイネーブル制御回路 33、・・読出しツクロック発生器 349.・読出しイネーブル制御回路 35・・・画素積和回路
Fig. 1 is a block diagram showing one embodiment of the image processing device according to the present invention, Fig. 2 is a flowchart of image processing, Fig. 3 is an external perspective view of an object to be inspected or identified, and Fig. 4 is a processing The fifth is a front view showing the target stamping area, the fifth is a plan view of the stamping area in Figure 4 divided into small areas, and the sixth is a 1
A diagram showing the coordinates of pixels 20 and 20 involved in pixel differential processing, Figure 7 is a block diagram of the differential value calculation circuit, Figure 8 is a block diagram of the feature quantity extraction circuit in a small area, and Figure 9 is the line memory Fig. 10 is a relationship diagram showing the positional relationship between an arbitrary pixel of interest and a small area when calculating a 9-neighbor medium area, and Fig. 11 is an explanatory diagram showing the order of input and output. An explanatory diagram showing the relationship, FIG. 12 is an explanatory diagram of the 5SDA method using a small area. 1... Imaging unit 2... Processing target 4... Stamping unit 5... Image processing device 6... Signal conversion unit 7... Monitor 9... Feature extraction unit 10... Frame Memory 13... Arithmetic control section 14... Input/output section 15... Memory 20... Pixel 21... Small area 25... 1 horizontal line delay circuit 26... 1 pixel delay circuit 27. ...Difference absolute value circuit 28...Difference absolute value circuit 29...Adders Lml to Lm5...Line memory 31...Clock generator 32...Write enable control circuit 33...Read clock generation Vessel 349.・Read enable control circuit 35...pixel product-sum circuit

Claims (12)

【特許請求の範囲】[Claims] (1)モデルとなる画像を撮像部に入力し、この撮像部
からの出力をアナログ−ディジタル変換してそのモデル
のディジタル画像を得るとともに、このディジタル画像
を所定の数の画素をもって統合する複数の領域に分割し
、この各領域内の特徴量を抽出し、一方処理対象となる
画像を上記撮像装置に入力し、この出力をアナログ−デ
ィジタル変換してその処理対象のディジタル画像を得、
このディジタル画像を所定の数の画素をもって統合する
複数の領域に分割し、この各領域内の特徴量を抽出し、
上記モデルのディジタル画像と上記処理対象のディジタ
ル画像とを両ディジタル画像の領域において比較するこ
とにより上記モデルのディジタル画像と上記処理対象の
ディジタル画像との位置合せをすることを特徴とする画
像処理方法。
(1) Input a model image to an imaging unit, convert the output from this imaging unit from analog to digital to obtain a digital image of the model, and integrate this digital image with a predetermined number of pixels. dividing the image into regions and extracting feature amounts within each region; inputting the image to be processed into the imaging device; converting the output from analog to digital to obtain a digital image to be processed;
Divide this digital image into multiple regions integrated with a predetermined number of pixels, extract the feature amount within each region,
An image processing method characterized by aligning the digital image of the model and the digital image to be processed by comparing the digital image of the model and the digital image to be processed in the area of both digital images. .
(2)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は各領域内の画素の濃度
を基準とする特許請求の範囲第1項記載の画像処理にお
ける位置合せ方法。
(2) The alignment method in image processing according to claim 1, wherein the feature amounts in the digital image of the model and the digital image to be processed are based on the density of pixels in each region.
(3)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は各領域内の画素の濃度
和を基準とする特許請求の範囲第1項記載の画像処理に
おける位置合せ方法。
(3) The alignment method in image processing according to claim 1, wherein the feature amounts in the digital image of the model and the digital image to be processed are based on the sum of density of pixels in each region.
(4)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は各領域内の画素の濃度
の微分値を基準とする特許請求の範囲第1項記載の画像
処理における位置合せ方法。
(4) The alignment method in image processing according to claim 1, wherein the feature amounts in the digital image of the model and the digital image to be processed are based on the differential value of density of pixels in each region.
(5)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は各領域内の画素の濃度
の微分値の和を基準とする特許請求の範囲第1項記載の
画像処理における位置合せ方法。
(5) Registration in image processing according to claim 1, wherein the feature amounts in the digital image of the model and the digital image to be processed are based on the sum of differential values of the density of pixels in each region. Method.
(6)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は各領域内の画素の読取
る方向別における微分値の累積値であることを特徴とす
る特許請求の範囲第1項記載の画像処理における位置合
せ方法。
(6) The feature amount in the digital image of the model and the digital image to be processed is the cumulative value of differential values in each reading direction of pixels in each region. alignment method in image processing.
(7)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は上記モデルおよび上記
処理対象の原画の濃度値の累積値を基準とすることを特
徴とする特許請求の範囲第1項記載の画像処理における
位置合せ方法。
(7) The feature amount in the digital image of the model and the digital image to be processed is based on the cumulative density value of the model and the original image to be processed. Alignment method in image processing described.
(8)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は上記モデルおよび上記
処理対象の原画における所定の領域内の所定の濃度を有
する画素の数を基準とすることを特徴とする特許請求の
範囲第1項記載の画像処理における位置合せ方法。
(8) The feature amounts in the digital image of the model and the digital image to be processed are based on the number of pixels having a predetermined density within a predetermined area in the original image of the model and the original image to be processed. An alignment method in image processing according to claim 1.
(9)上記モデルのディジタル画像と、上記処理対象の
ディジタル画像における特徴量は上記モデルおよび上記
処理対象の原画における所定の領域内の所定の微分濃度
を有する画素の数を基準とすることを特徴とする特許請
求の範囲第1項記載の画像処理における位置合せ方法。
(9) The feature amounts in the digital image of the model and the digital image to be processed are based on the number of pixels having a predetermined differential density within a predetermined area in the original image of the model and the original image to be processed. An alignment method in image processing according to claim 1.
(10)上記モデルのディジタル画像と、上記処理対象
のディジタル画像における特徴量は上記モデルおよび上
記処理対象の原画における濃度ヒストグラムを基準とす
ることを特徴とする特許請求の範囲第1項記載の画像処
理における位置合せ方法。
(10) The image according to claim 1, wherein the feature amounts in the digital image of the model and the digital image to be processed are based on density histograms of the model and the original image to be processed. Alignment method in processing.
(11)上記モデルのディジタル画像と上記処理対象の
ディジタル画像との位置合せは上記モデルのディジタル
画像を上記処理対象のディジタル画像内で比較すること
を特徴とする特許請求の範囲第1項記載の画像処理にお
ける位置合せ方法。
(11) The alignment of the digital image of the model and the digital image to be processed is performed by comparing the digital image of the model within the digital image to be processed. Alignment method in image processing.
(12)上記モデルのディジタル画像の面積は上記処理
対象のディジタル画像の面積に比し小さいことを特徴と
する特許請求の範囲第1項記載の画像処理における位置
合せ方法。
(12) The alignment method in image processing according to claim 1, wherein the area of the digital image of the model is smaller than the area of the digital image to be processed.
JP2019998A 1990-01-30 1990-01-30 Aligning method in image processing Pending JPH03224075A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019998A JPH03224075A (en) 1990-01-30 1990-01-30 Aligning method in image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019998A JPH03224075A (en) 1990-01-30 1990-01-30 Aligning method in image processing

Publications (1)

Publication Number Publication Date
JPH03224075A true JPH03224075A (en) 1991-10-03

Family

ID=12014831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019998A Pending JPH03224075A (en) 1990-01-30 1990-01-30 Aligning method in image processing

Country Status (1)

Country Link
JP (1) JPH03224075A (en)

Similar Documents

Publication Publication Date Title
CN112348787B (en) Training method of object defect detection model, object defect detection method and device
US4905296A (en) System for shape recognition
US6463175B1 (en) Structure-guided image processing and image feature enhancement
CN101424645A (en) Soldered ball surface defect detection device and method based on machine vision
CN119850602B (en) Photoelectric product detection method and system based on image processing
CN111539980B (en) Multi-target tracking method based on visible light
Wah et al. Analysis on feature extraction and classification of rice kernels for Myanmar rice using image processing techniques
CN113344905A (en) Strip deviation amount detection method and system
CN117115095A (en) A method and system for detecting small defects in complex textured ceramic tiles
Nguyen et al. Deep learning-enhanced defects detection for printed circuit boards
CN111739003A (en) A Machine Vision Algorithm for Appearance Detection
US5621825A (en) Image processor, image processing method and apparatus applying same
CN119723200A (en) Defect type detection method and device, electronic device and storage medium
CN112381751A (en) Online intelligent detection system and method based on image processing algorithm
CN120298859A (en) A method and system for recognizing small target contours in occluded scenes
CN120147252A (en) Intelligent visual detection and weighing device and method
JPH03224074A (en) Method and device for image processing
JPH03224075A (en) Aligning method in image processing
CN111507177A (en) Identification method and device for metering turnover cabinet
CN116580026A (en) Automatic optical inspection method, equipment and storage medium for appearance defects of precision parts
CN116309452A (en) A method of wafer center detection and positioning based on machine vision
CN116416251B (en) Method and related device for detecting quality of whole-core flame-retardant conveying belt based on image processing
CN107123105A (en) Images match defect inspection method based on FAST algorithms
Zhou et al. Development and evaluation of a vision inspection system for plastic bottle measurement
JPH03170930A (en) Pattern inspecting device