JPH03665B2 - - Google Patents
Info
- Publication number
- JPH03665B2 JPH03665B2 JP59031043A JP3104384A JPH03665B2 JP H03665 B2 JPH03665 B2 JP H03665B2 JP 59031043 A JP59031043 A JP 59031043A JP 3104384 A JP3104384 A JP 3104384A JP H03665 B2 JPH03665 B2 JP H03665B2
- Authority
- JP
- Japan
- Prior art keywords
- detected
- filter
- contour
- scanning
- outline
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 claims description 18
- 238000001514 detection method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 239000002131 composite material Substances 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 239000002932 luster Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Description
【発明の詳細な説明】
本発明はテレビ画像中の輪郭線から物体を認識
する物体認識方法に関する。DETAILED DESCRIPTION OF THE INVENTION The present invention relates to an object recognition method for recognizing an object from a contour line in a television image.
従来のこの種の物体認識方法は、物体を構成す
る各面の縁点(エツジ)に着目するもので、画像
中の明るさの急変している点を縁点として抽出
し、その縁点を連結することにより線画に変換
(線画化)するものである。 Conventional object recognition methods of this type focus on the edges of each surface that makes up the object. Points with sudden changes in brightness in the image are extracted as edge points, and the edges are By connecting them, it is converted into a line drawing (line drawing).
例えば、上記方法による円形物体の認識手順の
一例を第1図a〜dを参照しながら説明すると、
テレビカメラで撮影した原画像(第1図a)を、
まず走査線に沿つて微分処理し、明暗度が急変す
る1つの輪郭候補点を抽出する(第1図b)。次
に、この点の近傍の各画素について同様の微分処
理を行ない、そのうちの最大の微分値をもつ画素
を上述の輪郭候補点に連続した点とみなし、この
操作を繰り返すことにより連続した輪郭点(輪郭
線候補)を得(第1図c)、更にこの輪郭点が閉
じると(第1図d)、1つの物体とみなすように
している。 For example, an example of the procedure for recognizing a circular object using the above method will be explained with reference to FIGS.
The original image taken with a television camera (Figure 1 a) is
First, differential processing is performed along the scanning line to extract one contour candidate point where the brightness suddenly changes (FIG. 1b). Next, perform similar differentiation processing on each pixel in the vicinity of this point, and consider the pixel with the largest differential value to be a point continuous to the contour candidate point described above.By repeating this operation, continuous contour points can be obtained. (contour candidate) is obtained (Fig. 1c), and when this contour point is closed (Fig. 1d), it is regarded as one object.
しかし、かかる従来の輪郭線抽出方法において
は、輪郭候補点の追跡を阻害する要因として、
(1) 金属光沢によるブルーミング(第2図a参
照)
(2) 物体の重なり(第2図b参照)
(3) 物体表面のさび、汚れ等による不鮮明な画像
(4) 電気的ノイズによる画像の乱れ
等が挙げられ、その結果、本来存在すべき物体を
見逃すといつた問題がある。また、これらの問題
を解決するためには認識用のアルゴリズムが複雑
になり、リアルタイム処理がほとんど不可能であ
る。 However, in such conventional contour line extraction methods, there are several factors that impede tracking of contour candidate points: (1) Blooming due to metallic luster (see Figure 2 a) (2) Overlapping objects (see Figure 2 b) (3) Unclear images due to rust, dirt, etc. on the surface of objects; (4) Image disturbances due to electrical noise; as a result, there are problems in which objects that should be present may be missed. Furthermore, in order to solve these problems, recognition algorithms become complex, making real-time processing almost impossible.
本発明は上記実情に鑑みてなされたもので、所
望の物体の輪郭線を極めて高速に認識することが
できる物体認識方法を提供することを目的とす
る。 The present invention has been made in view of the above-mentioned circumstances, and an object of the present invention is to provide an object recognition method that can recognize the outline of a desired object at extremely high speed.
この発明によれば、検出対象物体の輪郭線は既
知であり、その輪郭線を特定できる数箇所の輪郭
部分の位置関係も既知であることに着目し、各画
素群が検出対象物体の輪郭線に対応する位置関係
にある少なくとも3つ以上の画素群を1組として
指定するためのフイルタ手段を用いて、前記検出
対象物体が存在する所定視野の入力画像を走査す
るとともに、前記1組の画素群内でそれぞれ明暗
度が急変する輪郭候補点の有無を検出し、1組の
各画素群内でそれぞれ同時に輪郭候補点を検出し
たとき検出対象物体の輪郭線が存在すると認識す
るようにしている。 According to this invention, the outline of the object to be detected is known, and the positional relationships of several outline parts that can identify the outline are also known, and each pixel group is aligned with the outline of the object to be detected. The input image of a predetermined field of view in which the object to be detected is present is scanned using a filter means for specifying as one set at least three or more pixel groups having a positional relationship corresponding to The presence or absence of contour candidate points whose brightness changes suddenly within each group is detected, and when contour candidate points are detected simultaneously within each pixel group, it is recognized that the contour of the object to be detected exists. .
以下、本発明を添付図面を参照して詳細に説明
する。 Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
第3図は本発明による物体認識方法を実施する
ための装置の一例を示す概略構成図で、検出対象
物体1をITVカメラ2が撮影している場合に関
して示している。ITVカメラ2は、前記物体1
を所定の視野で撮影し、その入力画像の明暗信号
を含むビデオ・コンポジツト信号を同期分離回路
3およびA/D変換器4に出力する。同期分離回
路3は入力するビデオ・コンポジツト信号から同
期信号を分離し、この同期信号に基づいてランダ
ム・アクセス・メモリ・アレイ(RAMアレイ)
5のアドレスを指定し、A/D変換器4は入力す
るビデオ・コンポジツト信号の明暗信号を明暗状
態が16階調の画像データに変換し、これを前記指
定したアドレス位置に書き込む。このようにして
RAMアレイ5には、第4図に示す原画像の明暗
度を示す一画面分の画像データが保存される。な
お、RAMアレイ5のXおよびYアドレスを指定
することにより任意の画像データを抽出すること
ができる。 FIG. 3 is a schematic configuration diagram showing an example of an apparatus for carrying out the object recognition method according to the present invention, and shows a case where the ITV camera 2 is photographing the object 1 to be detected. ITV camera 2 detects the object 1
is photographed in a predetermined field of view, and a video composite signal containing the brightness and darkness signals of the input image is output to the synchronization separation circuit 3 and the A/D converter 4. The synchronization separation circuit 3 separates the synchronization signal from the input video composite signal, and uses the random access memory array (RAM array) based on this synchronization signal.
5 is specified, and the A/D converter 4 converts the brightness signal of the input video composite signal into image data with a brightness state of 16 gradations, and writes this into the specified address position. In this way
The RAM array 5 stores one screen worth of image data showing the brightness of the original image shown in FIG. Note that by specifying the X and Y addresses of the RAM array 5, arbitrary image data can be extracted.
一方、メモリ6には、本発明方法を実施するた
めの主プログラム等が記憶されており、中央処理
装置(CPU)7は、その主プログラム内容に基
づきRAMアレイ5中の画像データの画像処理を
実行する。 On the other hand, the memory 6 stores a main program etc. for implementing the method of the present invention, and the central processing unit (CPU) 7 performs image processing of the image data in the RAM array 5 based on the main program contents. Execute.
次に、このCPU7の画像処理手順を説明する
前に、本発明に係る物体認識方法を原理的に説明
する。 Next, before explaining the image processing procedure of this CPU 7, the principle of the object recognition method according to the present invention will be explained.
本発明方法は、設定された3つ以上のある範囲
内に同時に輪郭としての特徴があるか否かによつ
て所望の輪郭線の有無を調べるものである。すな
わち、第5図に示すように基準位置Pからその中
心位置が距離L1だけ離間したΔL1の範囲A1、基
準位置Pからその中心位置が距離L2だけ離間し
たΔL2の範囲A2、……基準位置Pからその中心
位置が距離Lnだけ離間したΔLnの範囲Anを1組
として指定するための検出対象物体の輪郭線に対
応したフイルタを設定し、上記基準位置Pを走査
位置として入力画面を走査し、各範囲A1,A2,
…An内にそれぞれ同時に明暗度が急変する輪郭
候補点が存在する点(フイルタ特徴点)の有無を
調べる。例えば本実施例における検出対象物体1
に対しては、第6図に示すようにn=3のそれぞ
れある範囲A1,A2,A3を特定するフイルタ(以
下、L−フイルタという)を設定し、このL−フ
イルタのフイルタ位置(黒丸で示した位置)を移
動させながら範囲A1,A2,A3内において同時に
輪郭候補点が存在するフイルタ特徴点の有無を調
べる。なお、L−フイルタの間隔L1,L2,……
Lnは、検出対象物体の幾何学的形状によつて定
まり、テレビカメラの拡大率で一義的に決定され
る。このため、フイルタ構造の決定に際し、学習
等の煩雑な手続は不要である。また、ΔL1,
ΔL2,……ΔLnはノイズ、ボケ成分、光学系の歪
等により決定される。 The method of the present invention checks the presence or absence of a desired contour line based on whether there are contour features within three or more set ranges at the same time. That is, as shown in FIG. 5, there is a range A 1 of ΔL 1 in which the center position is separated by a distance L 1 from the reference position P, and a range A 2 of ΔL 2 in which the center position is separated by a distance L 2 from the reference position P. ,...A filter corresponding to the outline of the object to be detected is set to specify a range An of ΔLn whose center position is separated by a distance Ln from the reference position P as one set, and the reference position P is set as the scanning position. Scan the input screen and select each range A 1 , A 2 ,
...It is checked whether or not there are contour candidate points (filter feature points) whose brightness suddenly changes at the same time in An. For example, the detection target object 1 in this embodiment
As shown in Fig. 6, filters (hereinafter referred to as L-filters) that specify certain ranges A 1 , A 2 , and A 3 of n=3 are set, and the filter position of this L-filter is (positions indicated by black circles), it is checked whether or not there are filter feature points in which contour candidate points exist at the same time within ranges A 1 , A 2 , and A 3 . Note that the L-filter spacing L 1 , L 2 ,...
Ln is determined by the geometrical shape of the object to be detected, and is uniquely determined by the magnification rate of the television camera. Therefore, when determining the filter structure, complicated procedures such as learning are not necessary. Also, ΔL 1 ,
ΔL 2 , ...ΔLn are determined by noise, blur components, distortion of the optical system, etc.
次に、上記内容を実行するCPU7の処理手順
を第7図に示すフローチヤートに従いながら具体
的に説明する。まず、上述したL−フイルタのフ
イルタ位置(走査位置)を第4図に示すように開
始点PSTに移動し、この走査位置がフイルタ特
徴点であるか否かを調べる。 Next, the processing procedure of the CPU 7 for executing the above-mentioned contents will be specifically explained in accordance with the flowchart shown in FIG. First, the filter position (scanning position) of the L-filter described above is moved to the starting point PST as shown in FIG. 4, and it is checked whether this scanning position is a filter feature point.
走査位置がフイルタ特徴点でない場合には、走
査位置を右方向(X方向)に数画素分移動する。
この移動量は、L−フイルタのチエツク範囲
ΔL1,ΔL2,ΔL3により定まる。 If the scanning position is not a filter feature point, the scanning position is moved to the right (X direction) by several pixels.
This amount of movement is determined by the check ranges ΔL 1 , ΔL 2 , and ΔL 3 of the L-filter.
そして、走査位置が走査範囲の最右端か否かを
判断し、最右端でない場合には、その現在位置が
フイルタ特徴点であるか否かを判断し、フイルタ
特徴点でない場合には上記処理を繰り返す。 Then, it is determined whether the scanning position is at the rightmost end of the scanning range, and if it is not at the rightmost end, it is determined whether the current position is a filter feature point, and if it is not a filter feature point, the above process is performed. repeat.
このようにして、フイルタ特徴点がないまま走
査位置が走査範囲の最右端にくると、その走査位
置が走査範囲の最下端か否かを判断する。 In this way, when the scanning position reaches the rightmost end of the scanning range without any filter feature points, it is determined whether the scanning position is at the bottom end of the scanning range.
走査位置が走査範囲の最下端(すなわち、第4
図の位置PED)の場合には、この画面には「検
出対象物体がない」と判断して画像処理が終了す
る。一方、走査位置が走査範囲の最下端でない場
合には、走査位置を走査範囲の最左端に戻し、か
つある距離(ΔY)だけ下方向(Y方向)に移動
する(第4図参照)。そして、その走査位置より
再び走査を実行し、フイルタ特徴点の有無を調べ
る。 The scanning position is the lowest end of the scanning range (i.e. the fourth
In the case of position PED) in the figure, it is determined that there is no object to be detected on this screen, and image processing ends. On the other hand, if the scanning position is not at the bottom end of the scanning range, the scanning position is returned to the leftmost end of the scanning range and moved downward (in the Y direction) by a certain distance (ΔY) (see FIG. 4). Then, scanning is executed again from that scanning position to check the presence or absence of filter feature points.
以上のようにしてL−フイルタで画面を走査
し、フイルタ特徴点が検出されると、その走査位
置において「検出対象物体1を検出」と判断す
る。 The screen is scanned with the L-filter as described above, and when a filter feature point is detected, it is determined that "detection target object 1 is detected" at that scanning position.
なお、このL−フイルタでは第6図に示すよう
に検出対象物体1のほぼ中央部の区間lを横断す
るときにフイルタ特徴点が現われるため、検出対
象物体1の正確な位置を特定することができな
い。したがつて、この場合には、L−フイルタを
上下方向(副走査方向)に移動してフイルタ特徴
点が存在する範囲を調べるようにすれば、検出対
象物体1の正確な位置を特定することができる。
また、フイルタ特徴点の副走査方向への追跡長が
ある基準長以上となる場合のみ検出対象物体1が
存在するという判断を加えるようにすれば、より
正解率の高い物体認識ができる。 In addition, in this L-filter, as shown in FIG. 6, the filter feature points appear when crossing the section l at the approximate center of the detection target object 1, so it is difficult to specify the exact position of the detection target object 1. Can not. Therefore, in this case, by moving the L-filter in the vertical direction (sub-scanning direction) to examine the range where the filter feature points exist, the accurate position of the detection target object 1 can be specified. Can be done.
Furthermore, by adding a determination that the detection target object 1 exists only when the tracking length of the filter feature point in the sub-scanning direction is equal to or greater than a certain reference length, object recognition with a higher accuracy rate can be achieved.
また、L−フイルタは、ある範囲A1,A2…An
が同じ走査線上に並ぶ上記実施例に限らず、第8
図から第11図に示すように種々の方向に、かつ
個々の範囲における数画素はフイルタ位置(黒丸
で示す位置)に向つて並ぶように設定することが
できる。 Also, the L-filter has a certain range A 1 , A 2 ...An
are arranged on the same scanning line.
As shown in FIGS. 11 to 11, several pixels in various directions and in individual ranges can be set to line up toward the filter position (position indicated by a black circle).
また、L−フイルタには方向性が存在するた
め、例えば検出対象物体に応じて設定されたL−
フイルタにより画面を走査し、「検出対象物体が
ない」と判断した場合にはそのL−フイルタを所
定角だけ旋回させてなるL−フイルタによつて再
び走査し、これを「検出対象物体を検出」と判断
するまで繰り返し実行し、検出対象物体が検出さ
れたときのL−フイルタの旋回角によりその検出
対象物体がどの方向に存在するかを類推すること
もできる。 In addition, since the L-filter has directionality, for example, the L-filter can be set according to the object to be detected.
The screen is scanned by a filter, and if it is determined that there is no object to be detected, the L-filter is rotated by a predetermined angle and scanned again by the L-filter, which detects the object to be detected. It is also possible to repeatedly execute the process until it is determined that the detection target object is present, and to infer in which direction the detection target object exists based on the turning angle of the L-filter when the detection target object is detected.
以上説明したように本発明によれば、輪郭線全
周の追跡は行なわず、L−フイルタにより輪郭線
を特定できる数個所における画素群を抜粋し、各
画素群内でそれぞれ同時に輪郭候補点を検出した
ときに検出対象物体の輪郭線が存在すると認識す
るようにしたため、輪郭線の認識アルゴリズムが
簡単となり、処理時間を短縮することができる。
また、雑音に対する感受性が低いため対象物体を
見い出す正解率が高くなる。 As explained above, according to the present invention, the entire circumference of the contour is not traced, but pixel groups at several locations where the contour can be identified are extracted using an L-filter, and contour candidate points are simultaneously detected within each pixel group. Since the outline of the object to be detected is recognized as being present when it is detected, the outline recognition algorithm is simplified and the processing time can be shortened.
Furthermore, since the sensitivity to noise is low, the accuracy rate for finding the target object is high.
第1図a〜dは従来の輪郭線抽出方法による物
体認識の手順を説明するために用いた図、第2図
aおよびbはそれぞれ従来の輪郭線の追跡を阻害
する要因の一例を示す図、第3図は本発明による
物体認識方法を実施するための装置の一例を示す
概略構成図、第4図は第3図のRAMアレイに保
存される画像データの明暗度を示す図、第5図お
よび第6図はそれぞれ本発明に係るL−フイルタ
を説明するために用いた図、第7図は中央処理装
置の処理手順の一例を示すフローチヤート、第8
図から第11図はそれぞれ他のL−フイルタの実
施例を示す図である。
1……検出対象物体、2……ITVカメラ、3
……同期分離回路、4……A/D変換器、5……
RAMアレイ、6……メモリ、7……中央処理装
置(CPU)。
Figures 1 a to d are diagrams used to explain the procedure for object recognition using the conventional contour extraction method, and Figures 2 a and b are diagrams showing examples of factors that inhibit conventional contour tracing, respectively. , FIG. 3 is a schematic configuration diagram showing an example of an apparatus for implementing the object recognition method according to the present invention, FIG. 4 is a diagram showing the brightness of image data stored in the RAM array of FIG. 3, and FIG. 6 and 6 are diagrams respectively used to explain the L-filter according to the present invention, FIG. 7 is a flowchart showing an example of the processing procedure of the central processing unit, and FIG.
FIGS. 11 to 11 are diagrams showing other embodiments of the L-filter. 1... Detection target object, 2... ITV camera, 3
... Synchronization separation circuit, 4 ... A/D converter, 5 ...
RAM array, 6... memory, 7... central processing unit (CPU).
Claims (1)
位置関係にある少なくとも3つ以上の画素群を1
組として指定するためのフイルタ手段を用いて、
前記検出対象物体が存在する所定視野の入力画像
を走査するとともに、前記1組の画素群内でそれ
ぞれ明暗度が急変する輪郭候補点の有無を検出
し、1組の各画素群内でそれぞれ同時に輪郭候補
点を検出したとき検出対象物体の輪郭線が存在す
ると認識する物体認識方法。1 At least three or more pixel groups in a positional relationship where each pixel group corresponds to the outline of the object to be detected are
Using filter means to specify as a set,
The input image of a predetermined field of view in which the object to be detected exists is scanned, and the presence or absence of contour candidate points whose brightness suddenly changes is detected within the set of pixel groups, and simultaneously within each pixel group of the set. An object recognition method that recognizes the existence of a contour line of an object to be detected when a contour candidate point is detected.
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP59031043A JPS60179882A (en) | 1984-02-21 | 1984-02-21 | Object recognition method |
| DE19853505793 DE3505793A1 (en) | 1984-02-21 | 1985-02-20 | OBJECT IDENTIFICATION PROCEDURE |
| SE8500799A SE8500799L (en) | 1984-02-21 | 1985-02-20 | SET TO IDENTIFY FORMAL |
| US07/271,405 US4876729A (en) | 1984-02-21 | 1988-11-14 | Method of identifying objects |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP59031043A JPS60179882A (en) | 1984-02-21 | 1984-02-21 | Object recognition method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPS60179882A JPS60179882A (en) | 1985-09-13 |
| JPH03665B2 true JPH03665B2 (en) | 1991-01-08 |
Family
ID=12320451
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP59031043A Granted JPS60179882A (en) | 1984-02-21 | 1984-02-21 | Object recognition method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPS60179882A (en) |
-
1984
- 1984-02-21 JP JP59031043A patent/JPS60179882A/en active Granted
Also Published As
| Publication number | Publication date |
|---|---|
| JPS60179882A (en) | 1985-09-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US4272756A (en) | Method of pattern recognition and apparatus thereof | |
| US5231678A (en) | Configuration recognition system calculating a three-dimensional distance to an object by detecting cross points projected on the object | |
| JP2003304561A (en) | Stereo image processing device | |
| JPS60179881A (en) | How to recognize contour lines | |
| JPH0146002B2 (en) | ||
| JPH03665B2 (en) | ||
| JP3627249B2 (en) | Image processing device | |
| JPH10283482A (en) | Moving target detection device and detection method | |
| JPH0354385B2 (en) | ||
| JPH10283478A (en) | Feature extraction method and object recognition device using the method | |
| JPH03666B2 (en) | ||
| JPH03664B2 (en) | ||
| JPH11102442A (en) | Method and device for detecting edge | |
| JPH0514892A (en) | Image monitoring device | |
| JP3552419B2 (en) | Object recognition method | |
| JPH0351027B2 (en) | ||
| JP2959017B2 (en) | Circular image discrimination method | |
| EP0428082A2 (en) | A 3-dimensional configuration recognition system | |
| JPH0549927B2 (en) | ||
| JPH04259081A (en) | Wire recognition method and device | |
| CN114897966A (en) | Visual identification method for large element | |
| SU761829A1 (en) | METHOD OF RECOGNITION OF LINES AND EDGE OF IMAGES 1 | |
| JPH03113678A (en) | Traveling route recognizing method | |
| JPH0954823A (en) | Noise removal filter device for binary image | |
| JPH0916779A (en) | Fine shape detector |