JPS6319087A - Central point detecting method for circle and circular arc - Google Patents
Central point detecting method for circle and circular arcInfo
- Publication number
- JPS6319087A JPS6319087A JP61162040A JP16204086A JPS6319087A JP S6319087 A JPS6319087 A JP S6319087A JP 61162040 A JP61162040 A JP 61162040A JP 16204086 A JP16204086 A JP 16204086A JP S6319087 A JPS6319087 A JP S6319087A
- Authority
- JP
- Japan
- Prior art keywords
- image
- center
- point
- contour
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
(産業上の利用分野〉
本発明は円および円弧の中心点を検出する方法に関し、
特に、産業用ロボット等に設りられたカメラから、少な
くとも1以上の円形又は円弧形の輪郭を持つ被加工物の
画像を入力し、その画像を処理し、それらの円又は円弧
の中心点を検出する方法に関する。DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to a method for detecting the center point of a circle and an arc,
In particular, images of a workpiece having at least one circular or arcuate outline are input from a camera installed on an industrial robot, etc., the images are processed, and the center points of those circles or arcs are processed. Concerning how to detect.
(従来の技術)
近年、コンピュータの驚異的な発展に伴って、産業用ロ
ボットにカメラを接続し、人間と同様の視覚を与えるこ
とによって、被加工物の形状や位置等を計測させ、柔軟
性のめる加工作業を可能とした、いわゆる人工知能を有
する産業用ロボットの開発が盛んに行なわれている。(Prior technology) In recent years, with the amazing development of computers, industrial robots have been connected to cameras and given vision similar to humans, allowing them to measure the shape and position of workpieces, increasing flexibility. Industrial robots equipped with so-called artificial intelligence, which are capable of carrying out processing operations that require manual processing, are being actively developed.
ところで、産業用ロボットに接続されたカメラから入力
した視覚画像の情報処理方法としては、現在では、2値
画像処理が実用的な視覚システムで最も広く用いられて
いる。By the way, as a method for processing visual images input from a camera connected to an industrial robot, binary image processing is currently most widely used in practical visual systems.
前記した2値画像処理とは、以下に記すような処理を示
す。The binary image processing described above refers to the following processing.
第9図(a)のようにカメラ1によって被加工物2を写
し、この画像をコンピュータに入力し、この画像をMX
N個の画素に分解して前記画像の濃度値と、その8度1
面に対する画素3の数のヒストグラムを求める。As shown in FIG. 9(a), the workpiece 2 is photographed by the camera 1, this image is input into the computer, and this image is converted into MX.
Decompose the image into N pixels and calculate the density value of the image and its 8 degrees 1
Obtain a histogram of the number of pixels 3 for the surface.
前記コンピュータで計算したヒストグラムの結果は、第
9図(d)に示すようになり、背景に相当する山と被加
工物2に相当する山とが現われる。The result of the histogram calculated by the computer is as shown in FIG. 9(d), in which a peak corresponding to the background and a peak corresponding to the workpiece 2 appear.
この2つの山の間の谷の所の濃度値を閾値tとし、画像
処理の基準濃度とする。The density value at the valley between these two peaks is set as a threshold value t, and is used as a reference density for image processing.
そして、各画素毎に閾値tよりも濃度か大きいか小さい
かを判別し、大きければ、画素3に対応するメモリを1
に小さければメモリをOにセットする。Then, it is determined for each pixel whether the density is larger or smaller than the threshold value t, and if it is larger, the memory corresponding to pixel 3 is
If it is smaller than , set the memory to O.
すなわち、2値画像処理とは、被加工物の各画素毎の濃
度値が閾1a tよりも大きいか小さいかによって、各
画素に対応したメモリを1かOにセットする画像処理方
法である。That is, binary image processing is an image processing method in which a memory corresponding to each pixel is set to 1 or 0 depending on whether the density value of each pixel of the workpiece is larger or smaller than a threshold 1at.
以上に説明したような21a画像処理を用いて、被加工
物2の円の中心点を検出するには、次のような方法によ
って行なっていた。The following method was used to detect the center point of the circle of the workpiece 2 using the image processing 21a as described above.
第9図(a)に示すように、カメラ1によって被加工物
2を写し、その画像を、大きさMXN画素のデジタル画
像を有するコンビコータに入力する。このようにして入
力された画像は、同図(b)のように示される。As shown in FIG. 9(a), a workpiece 2 is photographed by a camera 1, and the image is input to a combicoater having a digital image having a size of MXN pixels. The image input in this way is shown as shown in FIG. 2(b).
次に、前記デジタル画像の画素3毎の濃度値と前記閾値
tを比較し、デジタル画像を作成する。Next, the density value of each pixel 3 of the digital image is compared with the threshold t to create a digital image.
その計算結果は同図(C)のように表わされる。The calculation result is expressed as shown in FIG. 4(C).
そして同図(C)で示される図形の断面−次モーメント
S(x、y)、前記図形の面積(斜線部分の画素数)A
、さらに前記図形の周囲長等を求め、指定された半径を
持つ円と思われる被加工物を判別し、S (X、V)/
Aを計算することにより、前記図形の重心、つまり被加
工物2の円の中心点に相当する画素の座標を求めるよう
になっている。Then, the cross-sectional moment of inertia S (x, y) of the figure shown in FIG.
, further determine the circumference of the figure, identify the workpiece that is considered to be a circle with the specified radius, and calculate S (X, V)/
By calculating A, the coordinates of the pixel corresponding to the center of gravity of the figure, that is, the center point of the circle of the workpiece 2, are determined.
(発明が解決しようとする問題点)
しかしなから、このような従来の円の中心点検出方法に
あっては、被加工物とその背景のコントラストを利用し
た2値画像処理によって行なっていたために、正確な円
の中心点を検出するには、被加工物とその背景のコント
ラストが良好であること、かつ、この被加工物をカメラ
で写し出す場合における照明条件ができるだけ一定であ
ること等厳しい必要限定条件かあった。(Problem to be Solved by the Invention) However, in this conventional method for detecting the center point of a circle, the process is performed using binary image processing that utilizes the contrast between the workpiece and its background. In order to accurately detect the center point of a circle, it is necessary to have a good contrast between the workpiece and its background, and the lighting conditions when photographing the workpiece with a camera must be as constant as possible. There were some limited conditions.
例えば、第10図(a)に示すような面取り加工のされ
た中空円筒形状の被加工物4の円の中心点を検出する場
合を考える。For example, consider the case of detecting the center point of a circle of a hollow cylindrical workpiece 4 that has been chamfered as shown in FIG. 10(a).
被加工物4をカメラ1て写すと、同図(b)のような画
像がコンピュータに入力される。そしてこのような画像
では、被加工物4の中空部分の濃度値が大きいために、
比較的コントラストが悪く、その濃度値と画素数とのヒ
ストグラムは、第10図(d)に示すようになり、はっ
きりとした闇値−シ′ か設定しにくくなる。また、同
時に複数の被加工物4をコンピュータに入力した場合に
は、さらに、この閾値t′の設定か困難になる。When the workpiece 4 is photographed with the camera 1, an image like that shown in FIG. 2(b) is input to the computer. In such an image, since the density value of the hollow part of the workpiece 4 is large,
The contrast is relatively poor, and the histogram of the density value and the number of pixels becomes as shown in FIG. 10(d), making it difficult to set a clear darkness value. Furthermore, if a plurality of workpieces 4 are input into the computer at the same time, it becomes even more difficult to set the threshold value t'.
このように、コン[〜ラス1〜の悪い被加工物4を2値
画像処理すると、照明条件の影響を受は易いために、コ
ンピュータは、照明条件の変化等により、第10図(C
)に示すような画像を計算結果として出力してしまうこ
とも考えられ、このような場合には、被加工物4の円の
中心点を誤って検出することになる。そして、同時に複
数の被加工物4をコンピュータに入力した場合には、前
記したような中心点の誤検出の可能性はざらに大きくな
る。In this way, when binary image processing is performed on the workpiece 4 with poor contrast 1, it is easily affected by the lighting conditions, so the computer may
) may be output as a calculation result, and in such a case, the center point of the circle of the workpiece 4 will be detected incorrectly. If a plurality of workpieces 4 are input into the computer at the same time, the possibility of erroneously detecting the center point as described above increases considerably.
従って、円形の輪郭を持つ部分の内部の明るさか均一で
ない被加工物を、画像としてコンピュータに入力したり
、この被加工物の周囲の照明条件が変化したりすると、
コンピュータで間違った処理がされる可能性があり、そ
の被加工物の中心点の検出に誤差を生じるという問題点
があった。Therefore, if a workpiece with uneven brightness inside a part with a circular outline is input to a computer as an image, or if the lighting conditions around this workpiece change,
There is a problem that the computer may perform incorrect processing, resulting in an error in detecting the center point of the workpiece.
本発明は上記のような問題点に鑑みてなされたものであ
り、被加工物の濃淡画像又は輪郭線画像を算出すること
により、被加工物のコントラストの良否及びコンピュー
タに同時に入力する被加工物の数量にかかわらず、被加
工物に存在する被検出体の指定された半径の円又は円弧
の中心点を、誤差を生ずることなく検出しうるようにす
ることを目的とする。The present invention has been made in view of the above-mentioned problems, and by calculating a gray scale image or a contour image of the workpiece, it is possible to determine whether the contrast of the workpiece is good or not and to input the workpiece simultaneously into a computer. It is an object of the present invention to detect the center point of a circle or arc of a specified radius of an object to be detected present in a workpiece without causing an error, regardless of the number of objects.
〈問題点を解決するための手段)
上記目的を達成するために、本発明では、背景に対して
異なる明るさとなる円形輪郭線を有する被検出体を画像
メモリに記憶し、当該画像メモリに記憶されている当該
被検出体における輪郭線上の一点を通る接線を算出し、
当該接線と直交し、かつ当該一点を通る直線を算出し、
当該直線上の当該背景に比して明方向又は暗方向のどち
らか一方向に当該一点から指定半径だけ離れた中心候補
点を算出し、前記中心候補点の算出を、当該輪郭線上の
全周について行うことによって得られた点の集合領域を
記憶して中心候補点領域とし、当該中心候補点領域にお
ける点の最密集点を指定半径の円中心とすることを特徴
とする。<Means for Solving the Problems> In order to achieve the above object, in the present invention, an object to be detected having a circular contour line having a different brightness with respect to the background is stored in an image memory; Calculate the tangent line passing through one point on the contour line of the detected object,
Calculate a straight line that is perpendicular to the tangent and passes through the point,
Calculate a center candidate point that is a specified radius away from the one point in either the bright direction or the dark direction relative to the background on the straight line, and calculate the center candidate point along the entire circumference on the contour line. The area where points are gathered is stored as a center candidate point area, and the point with the highest concentration of points in the center candidate point area is set as the center of a circle with a specified radius.
(作用)
以上のような方法によれば、被検出体における円および
円弧の中心点は、中心候補点の算出の結果得られた点の
集合領域内における最密集点に基づ′いて算出されるこ
とになるので、コン[〜ラストの良否に拘らず円および
円弧の中心点を検出することができ、また、前記中心候
補点は前記被検出体の円形輪郭線内部領域に必ず存在す
ることになる(当該円形輪郭線上の任意の接点における
法線上の一方向のみに中心候補点を算出するようにした
ため)ので、被加工物内に複数の円および円弧が存在す
る場合であっても、夫々の円および円弧の中心候補点は
干渉することなく、常に正確な円および円弧の中心点を
検出することかできる。(Operation) According to the method described above, the center points of circles and arcs on the object to be detected are calculated based on the most densely packed point within the collection area of points obtained as a result of calculating the center candidate points. Therefore, the center point of a circle or arc can be detected regardless of the quality of the contour, and the center candidate point must always exist within the circular contour of the object to be detected. (Because the center candidate point is calculated only in one direction on the normal line of any contact point on the circular contour), even if there are multiple circles and arcs in the workpiece, The center candidate points of the respective circles and arcs do not interfere with each other, and it is possible to always accurately detect the center points of the circles and arcs.
(実施例)
以下に、本発明に係る実施例を、図面に基づいて詳細に
説明する。(Example) Below, an example according to the present invention will be described in detail based on the drawings.
第1図は、本発明に係る円の中心点を検出する装置のブ
ロック図である。FIG. 1 is a block diagram of an apparatus for detecting the center point of a circle according to the present invention.
同図に示すように、この装置は、被加工物を写すテレビ
カメラ1から送られるアナログ画像を、A/l)lンバ
ータ7によってデジタル符号に変換し、このデジタル符
号を記憶する画像メモリ8と、画像メモリ8の記憶デー
タに基づいて、前記被7JO工物の輪郭を計算し、抽出
する輪郭抽出部9と、輪郭抽出部9の計算結果を記憶す
る画像メモリ1○と、画像メモリ1Qに記憶されている
前記被加工物の輪郭に関するデータから、その輪郭の線
上における接線の傾き及び明方向、暗方向を算出する傾
き算出部11と、画像メモリ8、半径入力部5及び明暗
データ6等の人力データにより、前記被加工物の仮の中
心点を算出する中心候補点算出部12と、中心候補点算
出部12で計算されたデータを記憶する画像メモリ13
と、画像メモリ13のデータにより、閾値を算出する閾
値算出部14と、画像メモリ13及び閾値算出部14の
データにより、前記加工物の中心点を確定する中心点抽
出部15と、中心点抽出部15で算出された結果を、C
RTやプリンタ又は機械の制御装置に出力する出力部1
6とて構成されている。As shown in the figure, this device converts an analog image sent from a television camera 1 that captures a workpiece into a digital code using an A/l) inverter 7, and an image memory 8 that stores this digital code. , a contour extraction section 9 that calculates and extracts the contour of the JO workpiece 7 based on the data stored in the image memory 8, an image memory 1○ that stores the calculation results of the contour extraction section 9, and an image memory 1Q. An inclination calculation unit 11 that calculates the inclination of a tangent on the contour line and the bright direction and dark direction from the stored data regarding the contour of the workpiece, an image memory 8, a radius input unit 5, brightness data 6, etc. A center candidate point calculation unit 12 that calculates a temporary center point of the workpiece using human data; and an image memory 13 that stores data calculated by the center candidate point calculation unit 12.
a threshold calculation unit 14 that calculates a threshold based on the data in the image memory 13; a center point extraction unit 15 that determines the center point of the workpiece based on the data in the image memory 13 and the threshold calculation unit 14; The results calculated in section 15 are
Output unit 1 that outputs to RT, printer, or machine control device
It is composed of 6.
次に、このように構成された装置によって、円形輪郭線
を有する被加工物の中心点を算出する過程を、第3図及
び第4図並びに第6図乃至第8図を参照しつつ、第2図
と第5図のフローチャートに基づ゛いて詳細に説明する
。Next, with reference to FIGS. 3 and 4 and FIGS. 6 to 8, we will explain the process of calculating the center point of a workpiece having a circular outline using the apparatus configured as described above. This will be explained in detail based on the flowcharts in FIGS. 2 and 5.
ステップ1
まず、プログラムがスタートすると、テレビカメラ1か
ら円形輪郭線を含んだ被加工物の映像信号が、A/Dコ
ンバータ7に送られ、ここで前記映像信号か、各画素毎
にデジタル信号に変換され、その信号か画像メモリ8の
指定アドレスに順次送られる。Step 1 First, when the program starts, a video signal of the workpiece including a circular outline is sent from the television camera 1 to the A/D converter 7, where the video signal is converted into a digital signal for each pixel. The signals are converted and sequentially sent to designated addresses in the image memory 8.
例えば1画面が255X240画素で構成されている画
面に、テレビカメラ]から、第4図(a>に示すような
円柱形状を有する被加工物の映像信号が送られると、こ
の映像信号が、8ビツトの分解能(白から黒までの濃淡
度合をO〜255まて ′の256段階に分解してデジ
タル化できる能力。)を有するA/Dコンバータ6でデ
ジタル化される。For example, when a video signal of a workpiece having a cylindrical shape as shown in FIG. The data is digitized by an A/D converter 6 having a bit resolution (ability to decompose and digitize the degree of gradation from white to black into 256 steps from 0 to 255').
A/Dコンバータ6てデジタル化された各画素毎の濃度
値は、画像メモリ8の各画素に対応した番地に順次送ら
れる。The density value of each pixel digitized by the A/D converter 6 is sequentially sent to the address corresponding to each pixel in the image memory 8.
ステップ2
ステップ1て説明したように、デジタル化された各画素
毎の濃度値は、RAMで構成されている画像メモリ8の
所定番地に夫々格納される。この−]〇 −
画像メモリ8に記憶されている画像は、8ビットで量子
化された濃淡画像である。Step 2 As explained in Step 1, the digitized density value of each pixel is stored in a predetermined location of the image memory 8 constituted by RAM. The image stored in the -]〇- image memory 8 is a grayscale image quantized with 8 bits.
ステップ3
画像メモリ8からデータを取り出し、このデータを空間
微分法により2次微分して、被加工物の輪郭線のみを抽
出した輪郭線画像を作成する。ここで、2次微分つまり
、ラプラシアンは、エツジの方向に依存しない2次の微
分オペレータで、画像処理ではよく用いられる。ここで
は、ラプラシアンの詳細な説明は省略する。Step 3: Data is extracted from the image memory 8, and this data is second-order differentiated using a spatial differential method to create a contour image in which only the contour of the workpiece is extracted. Here, the second-order differential, that is, the Laplacian, is a second-order differential operator that does not depend on the edge direction, and is often used in image processing. A detailed explanation of the Laplacian will be omitted here.
このラプラシアンを用いて、画像エツジを求めると、シ
ャープなエツジの場合は、第3図(a)に示すようなラ
プラシアンの曲線が得られ、また、ぼけたエツジの場合
には、同図(b)に示すようなラプラシアンの曲線が得
られる。When image edges are determined using this Laplacian, in the case of sharp edges, a Laplacian curve as shown in Figure 3 (a) is obtained, and in the case of blurred edges, the Laplacian curve shown in Figure 3 (b) is obtained. ) is obtained.
つまり、ラプラシアンの曲線は、エツジの下端と上端で
それぞれ正と負のピークを生じる。従ってエツジの位置
を求めるには、ラプラシアンの曲線の正負両ピーク間の
中央でラプラシアンか○になる場所を探せばよい。In other words, the Laplacian curve has positive and negative peaks at the bottom and top of the edge, respectively. Therefore, to find the position of the edge, you just need to find the place where the Laplacian curve becomes ○ in the center between the positive and negative peaks of the Laplacian curve.
以上のように、画像メモリ8に記憶された濃淡画像のラ
プラシアンを計算すると、第4図(b)に示すような輪
郭線画像が得られる。As described above, when the Laplacian of the grayscale image stored in the image memory 8 is calculated, a contour image as shown in FIG. 4(b) is obtained.
ステップ4
ステップ3で処理したラプラシアンによる輪郭線の抽出
においては、雑音に弱く、エツジよりも、細い線や孤立
点に強く反応するという性質を有している。従って、正
確な被加工物の輪郭線を抽出するためには、画像のノイ
ズ除去が必要となってくる。Step 4 The contour line extraction using the Laplacian processed in Step 3 has the property of being sensitive to noise and responding more strongly to thin lines and isolated points than to edges. Therefore, in order to extract an accurate contour of the workpiece, it is necessary to remove noise from the image.
このノイズを除去するために、本発明では、局所領域の
濃度和の差分を計算するオペレータを用いて、X、Y方
向のノイズを除去している。In order to remove this noise, in the present invention, noise in the X and Y directions is removed using an operator that calculates the difference between the sums of concentrations in local regions.
ステップ5
ノイズか除去されて、より鮮明となった輪郭線画像の輪
郭線を、濃淡度の最高値255に、そして背景をOに2
値化する。Step 5 The contour line of the contour image, which has been made clearer by removing noise, is set to the maximum shading value of 255, and the background is set to O2.
Value.
つまり、ノイズ除去後の輪郭線画像を、2値画像処理に
よって2値化し、より鮮明な輪郭線画像を作成する。That is, the contour image after noise removal is binarized by binary image processing to create a clearer contour image.
以上、ステップ3からステップ5の処理は、輪郭抽出部
9で行なわれる。The processes from step 3 to step 5 described above are performed by the contour extraction section 9.
ステップ6
ステップ5てノイズレスの濃淡画像を2値画像に変換処
理した後の各画素毎の2値化データを、画像メモ1ノ1
0の所定番地に夫々格納する。Step 6 After converting the noiseless grayscale image into a binary image in Step 5, convert the binarized data for each pixel to Image Memo 1/1.
Each is stored at a predetermined location of 0.
ステップ7
テレビカメラ1の被写体である円形輪郭線を有する被加
工物の有する被検出体の半径rが、半径入力部5、つま
り端末機であるキーボード等のようなデータ入力装置に
よって、中心候補点算出部12に入力される。Step 7 The radius r of the detected object having a circular outline, which is the object of the television camera 1, is determined by the radius input unit 5, that is, a data input device such as a terminal, such as a keyboard, at the center candidate point. It is input to the calculation unit 12.
ステップ8
次のステップにおいて処理される前記被加工物の被検出
体における中心候補点の領域がその被検出体内部に必す
存在させるようにする明暗データか、明暗データ入力部
6、つまり端末機であるキーボード等のようなデータ入
力装置によって、中心候補点算出部]2に入力される。Step 8 The brightness data input unit 6, that is, the terminal A data input device such as a keyboard or the like is input to the center candidate point calculation unit]2.
ステップ9
−13 =
8ビツトで量子化された濃淡画像が記憶されている画像
メモリ8と、画像メモリ10に記憶されている前記被加
工物の輪郭に関するデータから、傾き算出部11によっ
て算出されたその輪郭の線上における接線の傾き及び明
方向、暗方向に関するデータ、半径入力部5から入力さ
れた被加工物の半径rのデータ、かつ、明暗データ6か
ら入力された前記明暗データに基づいて、中心候補点算
出部12て、後述する中心点検出プログラムのサブルー
チンである中心候補点検出プログラムを処理することに
よって、前記被加工物の中心候補点・群の画像を作成す
る。Steps 9-13 = Calculated by the slope calculating section 11 from the image memory 8 in which the 8-bit quantized grayscale image is stored and the data regarding the outline of the workpiece stored in the image memory 10. Based on the data regarding the slope of the tangent on the contour line, the bright direction, and the dark direction, the data on the radius r of the workpiece inputted from the radius input section 5, and the brightness data inputted from the brightness data 6, The center candidate point calculation unit 12 creates an image of a center candidate point/group of the workpiece by processing a center candidate point detection program which is a subroutine of the center point detection program to be described later.
つまり、画像メモリ10に格納されている輪郭線画像の
輪郭線の画素毎に、中心候補点とみなされ
る画素のX、Y座標を、明暗データ入力部6によって入
力された明暗データに基づいて輪郭線上の画素の全てに
ついて求めると、第7図に示すような画像が作成される
ことになる。That is, for each pixel of the outline of the outline image stored in the image memory 10, the X and Y coordinates of the pixel considered as the center candidate point are determined based on the brightness data input by the brightness data input unit 6, and If all pixels on the line are calculated, an image as shown in FIG. 7 will be created.
そして、当該画像を作成する時には、中心候補点とみな
される画素の濃度値を1づつ増加して、中心候補点群の
画像とする。Then, when creating the image, the density value of each pixel considered as a center candidate point is increased by 1 to form an image of a group of center candidate points.
ステップ10
ステップ9で作成した中心候補点群を含む輪郭線画像の
画素毎のデータを画像メモリ13の所定番地に夫々格納
する。Step 10 The data for each pixel of the contour image including the center candidate point group created in Step 9 is stored at a predetermined location in the image memory 13, respectively.
ステップ11
閾値算出部14て、予め設定されている闇値t1を中心
点抽出部15に入力する。Step 11: The threshold calculation unit 14 inputs the preset darkness value t1 to the center point extraction unit 15.
ステップ12
第7図に示す画像を格納している画像メモリ13から、
画素毎のデータを取り出し、閾値算出部14から出力さ
れた閾値t1と、各画素毎のデータとが比較され、閾値
t1よりも小さい濃度値を有する画素を濃度値○に設定
する。Step 12 From the image memory 13 storing the image shown in FIG.
Data for each pixel is extracted, and the threshold value t1 output from the threshold value calculation unit 14 is compared with the data for each pixel, and pixels having a density value smaller than the threshold value t1 are set to a density value of ◯.
つまり、閾値t1よりも小さい濃度値を有する画素は、
消去されることになる。In other words, a pixel having a density value smaller than the threshold value t1 is
It will be deleted.
ステップ13
ステップ12で処理された画像は、再び、画像メモリ1
3の所定番地に更新記憶する。Step 13 The image processed in step 12 is transferred to the image memory 1 again.
The updated information is stored in the specified location in step 3.
= 15−
ステップ14
閾値算出部14て、再び予め設定されている閾値t2を
中心点抽出部15に入力する。= 15 - Step 14 The threshold value calculation unit 14 inputs the preset threshold value t2 to the center point extraction unit 15 again.
ステップ15
ステップ12と同様に、ステップ13で画像メモリ13
に格納した画像のデータを取り出し、閾値算出部14か
ら出力された閾値t2と、各画素毎のデータとか比較さ
れ、閾値↑2よりも小ざい濃度値を有する画素を消去す
る。Step 15 Similar to step 12, in step 13 the image memory 13
The data of the image stored in is extracted, and the data for each pixel is compared with the threshold value t2 outputted from the threshold value calculation unit 14, and pixels having a density value smaller than the threshold value ↑2 are deleted.
ステップ16
ステップ15で処理された閾値t2よりも大きい濃度値
を有する画素の集合体の画像の中で、最も濃度値の大き
い画素の座標を求め、この座標を被加工物の中心とし、
出力部15にその座標を出力する。Step 16 Find the coordinates of the pixel with the largest density value in the image of the collection of pixels having density values greater than the threshold value t2 processed in Step 15, set these coordinates as the center of the workpiece,
The coordinates are output to the output unit 15.
次にステップ9で処理されるサブルーチンのプログラム
について詳述する。Next, the subroutine program processed in step 9 will be described in detail.
ステップ20.ステップ21
ステップって画像メモリ8、傾き算出部11、半径入力
部5及び明暗データ入力部6からデータか入力されると
、画素のX、Y座標×1とYlかOに初期化される。Step 20. Step 21 When data is input from the image memory 8, the inclination calculation section 11, the radius input section 5, and the brightness data input section 6, the step is initialized to the X and Y coordinates of the pixel x 1 and Yl or O.
ステップ22
ステップ5で2値画像処理された輪郭線画像のデータが
格納されている画像メモリ10のX、 Y座標位置にお
ける濃度値か、Oであるかどうかか判断される。この濃
度値がOであれば、ステップ29が、Oでなければステ
ップ23が処理される。Step 22 It is determined whether the density value at the X, Y coordinate position of the image memory 10 where the data of the contour image subjected to the binary image processing in Step 5 is stored is O. If this density value is O, step 29 is processed; otherwise, step 23 is processed.
ステップ23
ステップ22て、おる座標における画素の濃度値がOで
なければ、第5図(b)に示すように、この座標△(X
l、Yl)の画素は、輪郭線上にあり、画像メモリ7に
格納されているデータに基づいて、当該画素の周囲8画
素を、第4図(a)のように区分し、その各画素毎の濃
度値を下記のようにマトリックスとして取り出すと、一
般式として、
のように書くことかできる。Step 23 In step 22, if the density value of the pixel at the coordinate is not O, as shown in FIG.
The pixel 1, Yl) is located on the contour line, and based on the data stored in the image memory 7, the 8 pixels surrounding the pixel are divided as shown in FIG. 4(a), and each pixel is If the concentration values of are extracted as a matrix as shown below, the general formula can be written as follows.
そして、8画素の濃度値のX、Y方向の変化分△X、△
Yを求めるために、前記マトリックスに、下記に示すX
方向変化分算出オペレータとY方向変化分オペレータを
掛は合せる。Then, the changes in the density values of 8 pixels in the X and Y directions △X, △
In order to find Y, the following X is added to the matrix.
Multiply the direction change amount calculation operator and the Y direction change amount operator.
X方向変化分算出オペレータは、
■1 0 11
Y方向変化分筒用オペレータは、
この計算を5obe lオペレータを用いて整理すると
濃度値のX方向変化分△Xは、
−−(a11+ 2 a21+a31)+(a 13+
2 a23+a33)・・・(1)
・・・(2)
このようにして、輪郭線上のめる画素A(Xl。The operator for calculating the change in the X direction is: ■1 0 11 The operator for changing the cylinder in the Y direction is: Organizing this calculation using the 5obel operator, the change in the concentration value in the X direction △X is: --(a11+ 2 a21+a31) +(a 13+
2 a23+a33)...(1)...(2) In this way, pixel A(Xl) is placed on the contour line.
Yl)についてその周辺の濃度値のX、Y方向変化分Δ
X、△Yか求められる。Yl), the amount of change Δ in the surrounding density values in the X and Y directions
X, △Y can be found.
ステップ24
ステップ23で求められた輪郭線上の市る画素A(Xl
、Yl)におけるX、Y方向の濃度値の変化分△X、△
Yに基づいて、当該画素における接線(第6図中して示
される)に垂直な直線の傾きθを求める。Step 24 Pixel A (Xl
, Yl) in the X and Y directions △X, △
Based on Y, the slope θ of a straight line perpendicular to the tangent line (shown in FIG. 6) at the pixel is determined.
当該直線の傾きθは、(1)、(2)式で算出した数値
によって第6図に示すように、近似的にθ−1冊−1
△Y/△Xで求めることができる。The slope θ of the straight line is approximately θ-1 books-1 as shown in Figure 6 using the values calculated using equations (1) and (2).
It can be determined by △Y/△X.
ステップ25
ステップ23で求められた輪郭線上のおる画素A (X
i、Y’l)におけるX、Y方向の濃度値の変化分△X
、△Yに基づいて、前記したステップ7で入力した指定
半径rのデータにより、被検出体にあ【ブる指定半径内
がその背景に比して明るいかどうかが判断される。この
判断の結果、指定半径内か明るければステップ26に、
逆に暗ければステップ27に夫々進む。Step 25 Pixel A (X
i, Y'l) change in density value in the X and Y directions △X
, ΔY, and the data of the specified radius r input in step 7 described above, it is determined whether the area within the specified radius surrounding the object to be detected is brighter than its background. As a result of this judgment, if it is within the specified radius or bright, go to step 26.
Conversely, if it is dark, the process proceeds to step 27.
ステップ26
次に、ステップ7で入力された被加工物の半径rに基づ
いて、中心候補点のX座標を求める。Step 26 Next, the X coordinate of the center candidate point is determined based on the radius r of the workpiece input in Step 7.
第6図に示すように、輪郭線上のある画素へのX座標X
1を通り、ステップ24で求めた傾きθの直線上、Xl
よりrだけ離れた点、つまり中心候補点のX座標は、
X=X1+rcosθ
で求めることかできる。As shown in Figure 6, the X coordinate of a certain pixel on the contour line
1, on the straight line with the slope θ obtained in step 24,
The X coordinate of a point r away from the center candidate point, that is, the center candidate point, can be found as follows: X=X1+rcosθ.
また、第6図に示すように、輪郭線上のある画素A(7
)X座標X1を通り、ステップ24て求めた傾きθの直
線上、Ylよりrだけ離れた点、つまり中心候補点のY
座標は、
Y = Y l 十r Si’nθ
て求めることかできる。Also, as shown in FIG. 6, a certain pixel A (7
) On the straight line passing through the X coordinate X1 and having the inclination θ obtained in step 24, a point r apart from Yl, that is, the center candidate point Y
The coordinates can be determined as follows: Y = Y l +r Si'nθ.
ステップ27
ステップ26と同様に、輪郭線上のある画素へのX座標
X1を通り、ステップ24で求めた1頃きθの直線上、
Xlよりrだけ離れた点、つまり中心候補点のX座標は
、
X=X1−rcosθ
で求めることができる。Step 27 Similarly to Step 26, on the straight line passing through the X coordinate X1 to a certain pixel on the contour line and at around 1 θ obtained in Step 24,
The X coordinate of a point r away from Xl, that is, the center candidate point, can be found as follows: X=X1-rcosθ.
また、第6図に示すように、輪郭線上のある画素へのX
座標X1を通り、ステップ24で求めた傾きθの直線上
、Ylよりrだけ離れた点、つまり中心候補点のY座標
は、
Y=Y’1−rsaθ
で求めることかできる。Also, as shown in Figure 6, X to a certain pixel on the contour line
The Y coordinate of the center candidate point, which is a point r apart from Yl on the straight line passing through the coordinate X1 and having the inclination θ determined in step 24, can be determined as follows: Y=Y'1-rsaθ.
ステップ2B
ステップ26又はステップ27て算出された輪郭線上の
ある画素へに対する中心候補点の座標X。Step 2B Coordinates X of the center candidate point for a certain pixel on the contour calculated in step 26 or step 27.
Yに相当する画素をプロットする。当該画素のプロット
時には、この画素の8度値を、輪郭線を形成する画素の
濃度値よりも、1ランク、インクリメント(増加)する
。Plot the pixels corresponding to Y. When plotting the pixel, the 8 degree value of this pixel is incremented (increased) by one rank compared to the density value of the pixel forming the contour line.
ステップ29
ステップ22において、おる座標の画素の8度値がOで
おると判断された場合、又はステップ2Bの処理後に、
画素のX座標が255になったかどうか判断される。Step 29 If it is determined in step 22 that the 8 degree value of the pixel at the coordinates is O, or after the processing in step 2B,
It is determined whether the X coordinate of the pixel has reached 255.
X座標か255ならばステップ30に、255でなけれ
ばステップ31にそれぞれ進む。If the X coordinate is 255, the process goes to step 30, and if it is not 255, the process goes to step 31.
ステップ30
ステップ29で画素のX座標が255でおると判断され
ると、強制的に、画素のX座標をOに初期化する。Step 30 If it is determined in step 29 that the pixel's X coordinate is 255, the pixel's X coordinate is forcibly initialized to O.
ステップ3]
ステップ29で画素のX座標が255てないと判断され
ると、画素のX座標を1だけ増加する。Step 3] If it is determined in step 29 that the X coordinate of the pixel is not 255, the X coordinate of the pixel is increased by 1.
この式は、X1=X1+’lて表わせる。This equation can be expressed as X1=X1+'l.
そして、ステップ31が実行されると、ステップ22に
戻り、前述した処理を、画素の座標(0゜O)から(2
55,O)まで行なうことになる。Then, when step 31 is executed, the process returns to step 22 and the above-mentioned process is performed from the pixel coordinate (0°O) to (2
55, O).
ステップ32
ステップ30の処理後に、画素のY座標が240になっ
たかどうか判断される。Step 32 After the processing in step 30, it is determined whether the Y coordinate of the pixel has reached 240 or not.
Y座標か240ならばメインルーチンのステップ10に
、240てな(プればステップ33に夫々進む。If the Y coordinate is 240, the process goes to step 10 of the main routine; if the Y coordinate is 240, the process goes to step 33.
ステップ33
ステップ32で画素のY座標か240てないと判断され
ると、画素のY座標を1だけ増加する。Step 33 If it is determined in step 32 that the Y coordinate of the pixel is not 240, the Y coordinate of the pixel is increased by 1.
これは、Y1=Y1+1という式で表わされる。This is expressed by the formula Y1=Y1+1.
そして、ステップ33が実行されると、ステップ22に
戻り、前jホした処理を、画素の座! (0゜○)から
(0,240>まで行なうことになる。When step 33 is executed, the process returns to step 22 and the previous process is performed on the pixel location! This will be done from (0°○) to (0,240>).
以上説明したサブルーチンプログラムを要約すると、2
55x 240の画素で構成された画面の全画素につい
て、濃度値のOでない画素を抽出し、当該画素の座標に
基づいて指定方向における中心候補点とみなされた座標
の画素をプロットする。To summarize the subroutine program explained above, 2
For all pixels of a screen composed of 55 x 240 pixels, pixels whose density value is not O are extracted, and based on the coordinates of the pixel, the pixels whose coordinates are considered to be the center candidate point in the designated direction are plotted.
このプロット時には、画素の濃度値を輪郭線を−23=
形成する画素のa度値よりも1ランクインクリメントし
、中心候補点群の画像を作成する。At the time of plotting, the density value of the pixel is incremented by one rank from the a degree value of the pixel forming the contour line by -23= to create an image of the center candidate point group.
なお、ステップ22のV2 (Xi、Yl)は、画像
メモリ10の(Xl、Yl)の座標の画素を示し、ステ
ップ23のVl は画像メモリ8を、ステップ28の■
3は画像メモリ13をそれぞれ表わしている。Note that V2 (Xi, Yl) in step 22 indicates the pixel at the coordinates (Xl, Yl) of the image memory 10, Vl in step 23 indicates the image memory 8,
3 represents the image memory 13, respectively.
さらに、第8図には、本発明の円および円弧の中心点検
出方法を用いて、シリンダヘットのシリンダの中心を求
める過程が示されている。(a )に示される画像は、
テレビカメラ1で写したシリンダヘッドをA/Dコンバ
ータ7でデジタル変換し、画像メモリ8に記憶した画像
である。そして、この画像は、輪郭線抽出部9によって
空間微分処理され、(b)に示すように、輪郭線だけが
抽出されて、この画像が画像メモリ10に記憶される。Further, FIG. 8 shows the process of determining the center of the cylinder of the cylinder head using the method for detecting the center point of circles and arcs of the present invention. The image shown in (a) is
This image is a cylinder head photographed by a television camera 1, digitally converted by an A/D converter 7, and stored in an image memory 8. Then, this image is subjected to spatial differentiation processing by the contour line extracting section 9, and only the contour line is extracted as shown in FIG.
次に(a>及び(b)の画像と、半径入力部5て入力さ
れたシリンダの半径r及び明暗データ入力部6て入力さ
れた明暗データに基づいて、中心候補点算出部12て算
出された中心候補点を含む(C)に示すような画像か作
成され、この画像が画像メモリ13に記憶される。そし
て、閾値算出部14で中心点抽出部15に入力した閾値
以下の濃度値を有する画素を消去して作成されたのか(
d)に示す画像である。さらに、再度間11fl算出部
14で中心点抽出部15に入力した閾値以下の濃度値を
有する画素を消去し、残った画素の中で最も濃度値の大
きい画素の座標を求める。この最終的な処理がなされた
画像が(e)に示す画像である。Next, the center candidate point calculation unit 12 calculates the center candidate point based on the images (a> and (b), the radius r of the cylinder inputted in the radius input unit 5, and the brightness data inputted in the brightness data input unit 6. An image as shown in (C) including the center candidate point is created, and this image is stored in the image memory 13.Then, the threshold calculation section 14 calculates the density value below the threshold input to the center point extraction section 15. Was it created by erasing pixels that have (
This is the image shown in d). Furthermore, the pixel having the density value below the threshold value inputted to the center point extracting part 15 is deleted again in the interval 11fl calculating part 14, and the coordinates of the pixel having the largest density value among the remaining pixels are determined. The image that has undergone this final processing is the image shown in (e).
次に、他の実施例としては、輪郭線画像を抽出せずに、
画像メモリ8に記憶されている濃淡画像のみから被加工
物の中心点を検出する方法かある。Next, as another example, without extracting the contour image,
There is a method of detecting the center point of the workpiece only from the gray scale image stored in the image memory 8.
この方法は、濃淡画像の全画素について、前)ホした実
施例に示すプログラムと同様の処理を行なうものであり
、画像メモリの容量が小さい場合に有効な方法である。This method performs the same processing as the program shown in the previous embodiment on all pixels of a grayscale image, and is an effective method when the capacity of the image memory is small.
また、その他の実施例としては、画像メモリ10に記憶
されている輪郭線画像のみから検出する方法がある。Further, as another example, there is a method of detecting only from the contour image stored in the image memory 10.
−25=
この方法は、円の接線を求める際に、輪郭線の傾きから
近似値的に接線の傾きを求め、その接線から中心点を求
める方法である。−25= In this method, when finding a tangent to a circle, the inclination of the tangent is approximated from the inclination of the contour line, and the center point is found from the tangent.
そして、上記した3つの実施例は、円の中心点算出につ
いてのみ説明したが、閾値算出部14から中心点抽出部
15に出力する閾値12を、円の中心点を算出する場合
の閾値よりも小さい値とすることにより、円弧形状を有
する円弧の中心も求めることが可能になる。In the three embodiments described above, only the calculation of the center point of the circle has been described, but the threshold value 12 outputted from the threshold value calculation unit 14 to the center point extraction unit 15 is set to be higher than the threshold value when calculating the center point of the circle. By setting a small value, it becomes possible to also find the center of an arc having a circular arc shape.
(発明の効果)
以上の説明より明らかなように、本発明では、濃淡画像
と輪郭線画像を算出し、入力された指定半径及び明暗デ
ータに基づいて、円形輪郭線を有する被検出体の円中心
を検出するようにしたので、前記被検出体の輪郭部とそ
の背景のコン[−ラストが良好でない画像、又は、同一
の画像に複数の被検出体が存在する場合、においでも、
照明条件等の変化に影響されることがなくなり、常に正
確な円又は円弧の中心点を検出することかできることに
なる。(Effects of the Invention) As is clear from the above description, in the present invention, a grayscale image and a contour image are calculated, and a circle of a detected object having a circular contour is calculated based on the input specified radius and brightness data. Since the center is detected, when the contrast between the outline of the detected object and its background is poor, or when multiple detected objects are present in the same image, even smells can be detected.
It is no longer affected by changes in lighting conditions, etc., and the center point of a circle or arc can always be accurately detected.
第1図は本発明に係る円および円弧の中心点を検出する
装置のブロック図、第2図は、第1図に示した装置に内
蔵されているコンピュータのプログラムのフローチャー
ト、第3図は第1図に示した装置の中心候補点算出部で
処理されるプログラムのフローチャート、第4図(a>
、(b)は、エツジ断面をラプラシアンで処理したとき
の曲線を示す図、第5図及び第6図は中心候補点を算出
する場合の説明図、第7図は中心候補点算出後の画像を
示す図、第8図は本発明の中心点検出方法によって、実
際の画像が処理される過程を示す説明図、第9図及び第
1Q図は従来の2値画像処理によって中心を算出する場
合の説明図である。
1・・・テレビカメラ、 2,4・・・被加工物、3・
・・画素。
第1図
第 8 図
(a ) (d )(b)
(e)(C)
第9図
(a) (b)
第10
(a)
(c)
1図
(b)
(d)
奥
友FIG. 1 is a block diagram of a device for detecting the center points of circles and arcs according to the present invention, FIG. 2 is a flowchart of a computer program built into the device shown in FIG. 1, and FIG. Flowchart of the program processed by the center candidate point calculation unit of the device shown in FIG. 1, FIG. 4 (a>
, (b) is a diagram showing the curve when the edge section is processed by Laplacian, Figures 5 and 6 are explanatory diagrams when calculating the center candidate point, and Figure 7 is the image after calculating the center candidate point. , FIG. 8 is an explanatory diagram showing the process in which an actual image is processed by the center point detection method of the present invention, and FIGS. 9 and 1Q are diagrams showing the case where the center is calculated by conventional binary image processing. FIG. 1... TV camera, 2, 4... Workpiece, 3.
...pixel. Figure 1 Figure 8 (a) (d) (b)
(e) (C) Figure 9 (a) (b) Figure 10 (a) (c) Figure 1 (b) (d) Okutomo
Claims (1)
検出体を画像メモリに記憶し、当該画像メモリに記憶さ
れている当該被検出体における輪郭線上の一点を通る接
線を算出し、当該接線と直交し、かつ当該一点を通る直
線を算出し、当該直線上の当該背景に比して明方向又は
暗方向のどちらか一方向に当該一点から指定半径だけ離
れた中心候補点を算出し、前記中心候補点の算出を、当
該輪郭線上の全周について行うことによつて得られた点
の集合領域を記憶して中心候補点領域とし、当該中心候
補点領域における点の最密集点を指定半径の円中心とす
る円および円弧の中心点検出方法。A detected object having a circular contour line with different brightness relative to the background is stored in an image memory, a tangent passing through a point on the contour line of the detected object stored in the image memory is calculated, and the tangent line and Calculate a straight line that is perpendicular to the point and passes through the point, calculate a center candidate point that is away from the point by a specified radius in either the bright direction or the dark direction relative to the background on the straight line, and By calculating the center candidate points for the entire circumference on the contour line, the area where the points are gathered is stored and set as the center candidate point area, and the point with the highest concentration of points in the center candidate point area is set at the specified radius. A method for detecting the center point of circles and arcs with the center of the circle as the center.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP61162040A JPH0664611B2 (en) | 1986-07-11 | 1986-07-11 | Circle and arc center point detection method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP61162040A JPH0664611B2 (en) | 1986-07-11 | 1986-07-11 | Circle and arc center point detection method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPS6319087A true JPS6319087A (en) | 1988-01-26 |
| JPH0664611B2 JPH0664611B2 (en) | 1994-08-22 |
Family
ID=15746942
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP61162040A Expired - Fee Related JPH0664611B2 (en) | 1986-07-11 | 1986-07-11 | Circle and arc center point detection method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0664611B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002197468A (en) * | 2000-12-27 | 2002-07-12 | Toyo Commun Equip Co Ltd | Medium position detection method and medium recognition device |
| US7239740B1 (en) | 1998-04-07 | 2007-07-03 | Omron Corporation | Image processing apparatus and method, medium storing program for image processing, and inspection apparatus |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6029878A (en) * | 1983-07-28 | 1985-02-15 | Fuji Electric Co Ltd | Detector for circular body |
-
1986
- 1986-07-11 JP JP61162040A patent/JPH0664611B2/en not_active Expired - Fee Related
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6029878A (en) * | 1983-07-28 | 1985-02-15 | Fuji Electric Co Ltd | Detector for circular body |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7239740B1 (en) | 1998-04-07 | 2007-07-03 | Omron Corporation | Image processing apparatus and method, medium storing program for image processing, and inspection apparatus |
| JP2002197468A (en) * | 2000-12-27 | 2002-07-12 | Toyo Commun Equip Co Ltd | Medium position detection method and medium recognition device |
Also Published As
| Publication number | Publication date |
|---|---|
| JPH0664611B2 (en) | 1994-08-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US4969202A (en) | Image recognition edge detection method and system | |
| US6044165A (en) | Apparatus and method for tracking handwriting from visual input | |
| DE102015113434A1 (en) | Method for object localization and pose estimation for an object of interest | |
| CN113409271B (en) | Method, device and equipment for detecting oil stain on lens | |
| CN117745552A (en) | Self-adaptive image enhancement method and device and electronic equipment | |
| US5621825A (en) | Image processor, image processing method and apparatus applying same | |
| CN109102466A (en) | Image stain determination method and device | |
| CN115272664A (en) | Instrument panel display method and device, electronic equipment and storage medium | |
| JPS6319087A (en) | Central point detecting method for circle and circular arc | |
| JP3627249B2 (en) | Image processing device | |
| JPS6234004A (en) | Method for detecting center point of circle and circular arc | |
| Yip et al. | Line segment patterns Hough transform for circles detection using a 2-dimensional array | |
| EP0447541B1 (en) | Image data processor system and method | |
| JPH0688789A (en) | Method for extracting density fluctuation constitution picture element in image and method for judging concentration fluctuation mass | |
| JP3745301B2 (en) | Method and apparatus for detecting reference position of annular image by omnidirectional imaging | |
| JPH05204459A (en) | Position measuring device and connector fitting method | |
| JPH05225336A (en) | Method for extracting boundary and device therefor | |
| JPH05113315A (en) | Center position detection method for circular image data | |
| JPH0549927B2 (en) | ||
| JPH0431751A (en) | Defect detecting method by visual inspection | |
| JPH1097634A (en) | Method for recognizing object | |
| JP2002039948A (en) | Appearance inspection device and appearance inspection method | |
| CN114723771A (en) | Real-time monitoring method of high-speed mobile robot based on optical flow and convolutional neural network | |
| JPS6232583A (en) | Processing method for variable density picture | |
| JPH0624028B2 (en) | Position measurement method of feature point corners for pattern recognition |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| LAPS | Cancellation because of no payment of annual fees |