JPH04589A - Method for extracting feature - Google Patents
Method for extracting featureInfo
- Publication number
- JPH04589A JPH04589A JP2100830A JP10083090A JPH04589A JP H04589 A JPH04589 A JP H04589A JP 2100830 A JP2100830 A JP 2100830A JP 10083090 A JP10083090 A JP 10083090A JP H04589 A JPH04589 A JP H04589A
- Authority
- JP
- Japan
- Prior art keywords
- character
- pattern
- coordinates
- value
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 23
- 238000000605 extraction Methods 0.000 claims description 60
- 239000011159 matrix material Substances 0.000 abstract description 31
- 238000012545 processing Methods 0.000 abstract description 26
- 239000000284 extract Substances 0.000 abstract description 11
- 230000001105 regulatory effect Effects 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 91
- 230000008569 process Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000005259 measurement Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Landscapes
- Character Discrimination (AREA)
Abstract
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明は、媒体上の文字を光電変換して得られる文字パ
タンを、複数方向に走査して該文字パタンの特徴を抽出
する特徴抽出方法、特に高速で、安定な特徴抽出方法に
関するものである。Detailed Description of the Invention (Industrial Application Field) The present invention provides a feature extraction method that scans a character pattern obtained by photoelectrically converting characters on a medium in multiple directions to extract the characteristics of the character pattern. , especially regarding a fast and stable feature extraction method.
(従来の技術)
従来、この種の特徴抽出方法としては、特開昭57−2
3185号公報(文献1)、及び特公昭58−5555
1号公報(文献2)に記載されるものがあった。(Prior art) Conventionally, this type of feature extraction method was disclosed in Japanese Patent Application Laid-open No. 57-2.
Publication No. 3185 (Document 1) and Special Publication No. 58-5555
There was one described in Publication No. 1 (Reference 2).
文献1の技術では、媒体上の文字を光電変換して得られ
た文字パタンより、各方向の線素成分(ストローク成分
)を表わすサブパタンを抽出する。そして、該サブパタ
ンを複数の領域に分割してその分割された各領域毎に、
前記サブパタンの線素の量を表わす特徴を抽出して特徴
マトリクスを生成する。その後、該特徴マトリクスと、
予め用意した辞書とを、照合して前記文字を認識するも
のであった。In the technique of Document 1, subpatterns representing line element components (stroke components) in each direction are extracted from a character pattern obtained by photoelectrically converting characters on a medium. Then, the sub-pattern is divided into multiple regions, and for each divided region,
A feature matrix is generated by extracting features representing the amount of line elements in the sub-pattern. Then, the feature matrix and
The characters were recognized by comparing them with a dictionary prepared in advance.
また、文献2の技術では、文字パタンの走査により、走
査線とストロークの交差数を特徴間として抽出するもの
であった。Further, in the technique of Document 2, the number of intersections between a scanning line and a stroke is extracted as a feature by scanning a character pattern.
(発明が解決しようとする課題)
しかしながら、上記の特徴抽出方法では、次のような課
題があった。(Problems to be Solved by the Invention) However, the above feature extraction method has the following problems.
(i) 第2図は、印刷文字の斜体字の例を示す図で
ある。この図における数字“O′を模式化した図を第3
図(a)〜(d>に示す。即ち、第3図(a)は斜体で
ない文字パタン“O′の例、同図(b)は斜体字101
の例、同図(C)は前記文献1の方法を用いて同図(a
)の文字パタンから抽出した垂直サブパタン、及び同図
(d)は前記文献1の方法を用いて同図(b)の文字パ
タンから抽出した垂直サブパタンである。(i) FIG. 2 is a diagram showing an example of printed characters in italics. A diagram illustrating the number “O” in this figure is shown in the third figure.
Figure 3(a) is an example of a non-italic character pattern "O', and Figure 3(b) is an example of an italic character pattern 101.
An example of the same figure (C) is the same figure (a
), and (d) in the same figure is a vertical sub-pattern extracted from the character pattern in (b) using the method of Document 1.
前記文献1の特徴抽出方法を用いて第3図(a)の文字
パタンの垂直サブパタンを抽出すると、第3図(C)の
ように、垂直成分を忠実に抽出できる。When the vertical sub-pattern of the character pattern shown in FIG. 3(a) is extracted using the feature extraction method of Document 1, the vertical component can be faithfully extracted as shown in FIG. 3(C).
しかし、第3図(b)の斜体字に対して垂直サブパタン
を抽出すると、第3図(d)に示すように、線素成分が
傾く。その上、第3図(d)の破線で示すような線素成
分が抽出されるべきところが、傾いた線素に対して垂直
に走査しているため、線素の両端部が欠けてしまう。そ
のため、同じ字形“O゛でありながら、抽出される特徴
が異なる(つまり、抽出される特徴が不安定となる)と
いう問題があった。また、手書文字の変形としては、一
般に右上がりのものが多く、水平線素が傾いているため
、前記と同様に、抽出される特徴が不安定となるという
問題があった。However, when a vertical sub-pattern is extracted for the italic letters in FIG. 3(b), the line element components are tilted as shown in FIG. 3(d). Moreover, since the line element component shown by the broken line in FIG. 3(d) is to be extracted, the line element is scanned perpendicularly to the inclined line element, so both ends of the line element are missing. As a result, there was a problem that the extracted features were different (in other words, the extracted features were unstable) even though they had the same character shape "O゛".In addition, handwritten characters are generally transformed into upward-to-the-right characters. Since there are many elements and the horizontal line elements are tilted, there is a problem that the extracted features become unstable, as in the above case.
従って、特徴抽出後、辞書と照合して文字認識を行う場
合、文字傾斜の変形に対応した多数の辞書を用意しなけ
ればならない。そのため、辞書容量が増大し、照合の長
時間化による処理速度の低下と、ハード規模(装置規模
)の増大を招くという不都合があった。Therefore, when character recognition is performed by comparing characters with dictionaries after feature extraction, it is necessary to prepare a large number of dictionaries corresponding to the deformation of the character slope. As a result, the dictionary capacity increases, the processing speed decreases due to longer verification times, and the hardware scale (device scale) increases, which are disadvantageous.
(ii) 前記文献2の技術では、走査線と線素の交
差数を特徴間としているので、第3図(b)のように線
素に傾斜があると、走査方向を固定したとき、抽出され
る交差数(特徴間)が大きく変動し、前記(i)と同様
の問題が生じる。(ii) In the technique of Document 2, the number of intersections between a scanning line and a line element is used as a feature, so if a line element has an inclination as shown in FIG. 3(b), when the scanning direction is fixed, the extraction The number of intersections (between features) that occur varies greatly, causing the same problem as in (i) above.
本発明は前記従来技術が持っていた課題として、抽出さ
れる特徴が不安定となる点と、処理速度の低下及び装置
の大型化の点について解決した特徴抽出方法を提供する
ものである。The present invention provides a feature extraction method that solves the problems of the prior art, such as instability of extracted features, reduction in processing speed, and increase in device size.
(課題を解決するための手段)
前記課題を解決するために、第1の発明は、媒体上の文
字を光電変換して得られる文字パタンを、複数の方向に
走査して該文字パタンの特徴を抽出する特徴抽出方法に
おいて、次のような手段を講じたものである。(Means for Solving the Problems) In order to solve the above-mentioned problems, a first invention is to scan a character pattern obtained by photoelectrically converting characters on a medium in a plurality of directions, and determine the characteristics of the character pattern. In this feature extraction method, the following measures are taken.
即ち、前記文字パタンを含むX−Y座標系で定義される
平面において、少なくとも2組の特定の実数α、βにつ
いて前記文字パタンの黒画素に関するαx十βy(但し
、x、yはX−Y座標系の座標値)の最大値及び最小値
を与える座標を求め、該座標に基づき前記文字パタンの
傾斜角を検出し、該傾斜角に基づき前記文字パタンを走
査して特徴を抽出するようにしている。That is, in a plane defined by the X-Y coordinate system including the character pattern, αx + βy (where x, y are X-Y Find the coordinates that give the maximum and minimum values (coordinate values of a coordinate system), detect the inclination angle of the character pattern based on the coordinates, and extract the features by scanning the character pattern based on the inclination angle. ing.
第2の発明では、媒体上の文字を光電変換して得られる
文字パタンを複数の方向に走査し、該走査方向の黒画素
の連続数と線幅との関係により、該走査方向の線素成分
を表わすサブパタンを抽出した後、前記サブパタンを複
数の領域に分割してその分割された領域毎に、前記サブ
パタンの線素量を表わす特徴を抽出する特徴抽出方法に
おいて、次のような手段を講じたものである。In the second invention, a character pattern obtained by photoelectrically converting characters on a medium is scanned in multiple directions, and line elements in the scanning direction are determined based on the relationship between the number of consecutive black pixels in the scanning direction and the line width. In a feature extraction method for extracting a subpattern representing a component, dividing the subpattern into a plurality of regions, and extracting a feature representing the amount of line elements of the subpattern for each divided region, the following means are used. This is what I learned.
即ち、前記文字パタンを含むX−Y座標系で定義される
平面において、少なくとも2組の特定の実数α、βにつ
いて前記文字バタンの黒画素に関するαX+βy(但し
、x、yはX−Y座標系の座標値〉の最大値及び最小値
を与える座標を求め、該座標に基づき前記文字バタンの
傾斜角を検出し、該傾斜角に従って前記サブパタンを抽
出するようにしている。That is, in the plane defined by the X-Y coordinate system including the character pattern, αX + βy regarding the black pixel of the character stamp for at least two sets of specific real numbers α, β (where x, y are in the X-Y coordinate system The coordinates giving the maximum and minimum values of the coordinate values> are determined, the inclination angle of the character stamp is detected based on the coordinates, and the sub-pattern is extracted according to the inclination angle.
(作 用)
第1及び第2の発明によれば、以上のように特徴抽出方
法を構成したので、文字バタンか入力されると、その文
字バタンの黒画素に関するαx十βyの最大値及び最小
値を与える座標を検出し、その座標に基づき該文字バタ
ンの傾斜角を検出する。(Function) According to the first and second inventions, since the feature extraction method is configured as described above, when a character slam is input, the maximum value and the minimum value of αx and βy regarding the black pixels of the character slam are input. The coordinates that give the value are detected, and the inclination angle of the character button is detected based on the coordinates.
そして第1の発明では、検出された傾斜角に従って前記
文字バタンを走査し、走査線とストロークの交差数等と
いった特徴間を抽出する。In the first invention, the character stamp is scanned according to the detected inclination angle, and features such as the number of intersections between a scanning line and a stroke are extracted.
また第2の発明では、検出された傾斜角に従ってサブパ
タンを抽出し、その後、そのサブパタンを複数の領域に
分割してその分割された領域毎に前記サブパタンの特徴
を抽出する。Further, in the second invention, a sub-pattern is extracted according to the detected tilt angle, and then the sub-pattern is divided into a plurality of regions, and the characteristics of the sub-pattern are extracted for each of the divided regions.
これにより、傾斜がある文字バタンについても、抽出さ
れる特徴が安定となり、前記課題を解決できるのである
。This makes it possible to stabilize the extracted features even for character stamps with slopes, and to solve the above-mentioned problem.
(実施例)
第1図は、本発明の実施例を示す特徴抽出方法を用いた
文字認識装置の機能ブロック図である。(Embodiment) FIG. 1 is a functional block diagram of a character recognition device using a feature extraction method showing an embodiment of the present invention.
この文字認識装置は、帳票等の媒体上の文字画像の光信
号INを量子化された電気信@(ディジタル信号)に変
換する光電変換部1を有し、その出力側には、行バッフ
ァ2が接続されている。行バッファ2は、例えば幅20
48X高さ128ビツトの大きさを有し、1行分の文字
画像のディジタル信号を格納する構成になっており、そ
の出力側には、文字切出部3を介してバタンレジスタ4
が接続されている。This character recognition device has a photoelectric conversion unit 1 that converts an optical signal IN of a character image on a medium such as a form into a quantized electrical signal (digital signal), and on the output side thereof, a line buffer 2 is provided. is connected. Row buffer 2 has a width of 20, for example.
It has a size of 48 x 128 bits in height and is configured to store the digital signal of one line of character image, and the output side is connected to a button register 4 via a character cutting section 3.
is connected.
文字切出部3は、メモリを有し、行バッファ2の出力か
ら1文字分のディジタル信号(これを、「文字バタン」
という)をバタンレジスタ4に格納する機能を有してい
る。バタンレジスタ4は、例えば64X64ビツトの記
憶容量を有し、その出力側には、文字枠検出部5、線幅
測定部6、文字傾斜検出部7、分割点検出部8、及びサ
ブパタン抽出部9が接続されている。線幅測定部6、分
割点検出部8、及びサブパタン抽出部9の出力側には、
特徴マトリクス抽出部10が接続され、ざらにその出力
側に、識別部11が接続されている。The character cutting section 3 has a memory, and receives a digital signal for one character from the output of the line buffer 2 (this is called a "character slam").
) is stored in the button register 4. The button register 4 has a storage capacity of, for example, 64 x 64 bits, and has a character frame detection section 5, a line width measurement section 6, a character slope detection section 7, a dividing point detection section 8, and a subpattern extraction section 9 on its output side. is connected. On the output side of the line width measurement section 6, division point detection section 8, and subpattern extraction section 9,
A feature matrix extraction section 10 is connected, and an identification section 11 is connected roughly to its output side.
文字枠検出部5は、バタンレジスタ4内の文字バタンを
走査して外接枠、つまり文字枠を検出し、その検出結果
を分割点検出部8に与える機能を有している。線幅測定
部6は、バタンレジスタ4の出力に対する線幅を測定し
、その測定結果をサブパタン抽出部9及び特徴マトリク
ス抽出部10に与える機能を有している。The character frame detection unit 5 has a function of scanning the character slams in the button register 4 to detect a circumscribing frame, that is, a character frame, and providing the detection result to the division point detection unit 8. The line width measurement section 6 has a function of measuring the line width of the output of the button register 4 and providing the measurement results to the sub-pattern extraction section 9 and the feature matrix extraction section 10.
文字傾斜検出部7は、バタンレジスタ4に格納された文
字バタンについて傾斜度を抽出し、その抽出結果をサブ
パタン抽出部9へ出力する機能を有している。分割点検
出部8は、外接枠内を複数の部分領域に分割するための
分割点座標を検出し、その検出結果を特徴マトリクス抽
出部10へ出力する機能を有している。The character slant detection unit 7 has a function of extracting the slant of the character slams stored in the button register 4 and outputting the extraction result to the sub-pattern extraction unit 9. The division point detection section 8 has a function of detecting division point coordinates for dividing the inside of the circumscribed frame into a plurality of partial regions, and outputting the detection result to the feature matrix extraction section 10.
サブパタン抽出部9は、文字傾斜検出部7の出力傾斜度
に基づき、バタンレジスタ4を複数方向に走査して垂直
、水平、右斜め、左斜めサブパタンを抽出するもので、
垂直サブパタン抽出部9a。The sub-pattern extraction section 9 scans the button register 4 in a plurality of directions based on the output slope of the character slant detection section 7 to extract vertical, horizontal, right diagonal, and left diagonal sub-patterns.
Vertical sub-pattern extraction section 9a.
水平サブパタン抽出部9b、右斜めサブパタン抽出部9
C1及び左斜めサブパタン抽出部9dより構成されてい
る。各抽出部9a〜9dは、それぞれバタン格納用のメ
モリを有している。Horizontal sub-pattern extraction section 9b, right diagonal sub-pattern extraction section 9
C1 and a left diagonal sub-pattern extraction section 9d. Each of the extraction units 9a to 9d has a memory for storing a button.
特徴マトリクス抽出部10は、サブパタン抽出部9から
出力される垂直、水平、右斜め、及び左斜めサブパタン
の各バタンから、特徴間を抽出して特徴マトリクスを作
成し、それを識別部11へ与える機能を有している。識
別部11は、標準文字の特徴マトリクス(標準文字マス
ク)G(k)と、この特徴マトリクスG (k)を有す
る標準文字の文字名とを、格納する辞書メモリを有して
いる。そして、特徴マトリクス抽出部10で抽出された
特徴マトリクスF (k)と、辞書メモリの特徴マトリ
クスG (k)とを、照合することにより、該特徴マト
リクスF (k)を得た外接枠内領域の文字図形の認識
を行い、文字名OUTを出力する機能を有している。The feature matrix extraction unit 10 extracts features from each of the vertical, horizontal, right diagonal, and left diagonal subpatterns output from the subpattern extraction unit 9 to create a feature matrix, and provides it to the identification unit 11. It has a function. The identification unit 11 has a dictionary memory that stores a standard character feature matrix (standard character mask) G(k) and the character name of the standard character having this feature matrix G(k). Then, by comparing the feature matrix F (k) extracted by the feature matrix extraction unit 10 with the feature matrix G (k) in the dictionary memory, the region within the circumscribed frame from which the feature matrix F (k) is obtained is obtained. It has the function of recognizing characters and figures and outputting character names OUT.
第4図は、第1図の文字傾斜検出部7における一構成例
を示す機能ブロック図である。FIG. 4 is a functional block diagram showing a configuration example of the character slant detection section 7 of FIG. 1.
この文字傾斜検出部7は、バタンレジスタ4から入力さ
れる画像データMの画素にX座標を付与するためのX座
標発生手段21と、画像データMの画素にY座標を付与
するためのY座標発生手段22とを備え、それらの出力
側には座標検出手段30.40が接続されている。座標
検出手段30゜40は、X、Y座標と少なくとも2組の
特定のα値及びデータ値とを用いて被抽出バタンの画素
に関する最大及び最小の計篩値αx十βyを検出し、そ
の最大最小計算値を与える被抽出バタンの画素のX、Y
座標をそれぞれ特徴点座標として出力するものであり、
その出力側には、文字バタンの傾斜度を特徴点座標に基
づき算出する傾斜度算出手段50が接続されている。This character inclination detection section 7 includes an X coordinate generating means 21 for assigning an X coordinate to a pixel of the image data M inputted from the button register 4, and a Y coordinate generating means 21 for assigning a Y coordinate to a pixel of the image data M. generating means 22, and coordinate detecting means 30, 40 are connected to their output sides. The coordinate detection means 30 and 40 detect the maximum and minimum total sieve values αx +βy regarding the pixels of the extracted button using the X, Y coordinates and at least two sets of specific α values and data values, and X, Y of the pixel of the extracted button that gives the minimum calculated value
The coordinates are output as feature point coordinates,
Connected to its output side is a slope calculation means 50 that calculates the slope of the character slam based on the feature point coordinates.
座標検出手段30は、計算値αX+βyを算出するX十
Y計算手段31と、最大計算値を検出するだめの最大値
検出手段32と、最大計算値を与える画素のX、Y座標
を保存するための最大値座標保存手段33と、最小計算
値を検出するための最小値検出手段34と、最小計算値
を与える画素のX、Y座標を保存するための最小値座標
保存手段35とで、構成されている。同様に、座標検出
手段40は、X−Y計算手段41、最大値検出手段42
、最大値座標保存手段43、最小値検出手段44、及び
最小値座標保存手段45より構成されている。The coordinate detecting means 30 includes an X+Y calculating means 31 for calculating the calculated value αX+βy, a maximum value detecting means 32 for detecting the maximum calculated value, and a means for storing the X and Y coordinates of the pixel giving the maximum calculated value. A maximum value coordinate storage means 33, a minimum value detection means 34 for detecting the minimum calculated value, and a minimum value coordinate storage means 35 for storing the X and Y coordinates of the pixel giving the minimum calculated value. has been done. Similarly, the coordinate detection means 40 includes an X-Y calculation means 41 and a maximum value detection means 42.
, maximum value coordinate storage means 43, minimum value detection means 44, and minimum value coordinate storage means 45.
この文字傾斜検出部7では、特徴点座標検出のために、
例えばα=B=1及びα−1、β=−1の2組のα値及
びβ値を用いるので、2つの座標検出手段30.40を
備えている。一方の座標検出手段30では計算値X+Y
に関する最大及び最小計算値を、他方の座標検出手段4
0では計算値X−Yに関する最大及び最小計算値を、そ
れぞれ与える画素の座標を検出する機能を有している。In this character inclination detection section 7, in order to detect feature point coordinates,
For example, since two sets of α and β values, α=B=1, α−1, and β=−1, are used, two coordinate detection means 30 and 40 are provided. One of the coordinate detection means 30 calculates the calculated value X+Y.
The maximum and minimum calculated values for the other coordinate detection means 4
0 has a function of detecting the coordinates of pixels that respectively give the maximum and minimum calculated values regarding the calculated value X-Y.
例えば、X十Y計算手段31は加算回路で、XY計算手
段41は減算回路で、検出手段32゜34.42.44
はそれぞれ比較器及びレジスタで、座標保存手段33.
35.43.45はそれぞれレジスタ等で構成されてい
る。また、X座標発生手段21及びY座標発生手段22
は、座標検出手段30.40に対して共通に用いるよう
に構成されており、そのため座標検出手段30.40は
X座標発生手段21及びY座標発生手段22h)ら出力
されるX、Y座標をそれぞれ入力して特徴点座標の検出
を行う機能を有している。For example, the XY calculation means 31 is an addition circuit, the XY calculation means 41 is a subtraction circuit, and the detection means 32°34.42.44
are a comparator and a register, respectively, and coordinate storage means 33.
35, 43, and 45 are each composed of registers and the like. Moreover, the X coordinate generation means 21 and the Y coordinate generation means 22
are configured to be used in common with the coordinate detection means 30.40, and therefore the coordinate detection means 30.40 receives the X and Y coordinates output from the X coordinate generation means 21 and the Y coordinate generation means 22h). It has a function to input each input and detect feature point coordinates.
次に、以上のように構成される文字認識装置を用いた特
徴抽出方法と、その抽出結果から文字認識を行う方法に
ついて、各機能ブロックの処理(I)〜(VI)につい
て説明する。Next, processes (I) to (VI) of each functional block will be described regarding a feature extraction method using the character recognition device configured as described above and a method of performing character recognition from the extraction results.
本実施例では、第2図に示すように、印刷文字における
斜体字のような、文字の垂直辺が傾斜するような文字を
含む文字列の特徴抽出とその認識処理について、以下説
明する。In this embodiment, as shown in FIG. 2, feature extraction and recognition processing for a character string including characters whose vertical sides are inclined, such as italic characters in printed characters, will be described below.
(1) 文字バタン生成処理
帳票上に記入された文字画像の光信号INが光電変換部
1に入力されると、光電変換部1では、光信号]Nを2
値のデジタル信号、つまり文字線部を“1′、背景部を
“O′に変換する。光電変換部1で変換された1行分の
文字画像のデジタル信号は、行バッファ2に格納される
。(1) When the optical signal IN of the character image written on the character stamp generation processing form is input to the photoelectric conversion unit 1, the photoelectric conversion unit 1 converts the optical signal ]N into 2
The digital signal of the value, that is, the character line part is converted to "1'" and the background part to "O". The digital signal of one line of character images converted by the photoelectric conversion unit 1 is stored in the line buffer 2.
文字切出部3では、行バッノ72に格納された文字画像
のデジタル信号から、1文字分のデジタル信号(文字バ
タン)を読出し、バタンレジスタ4に格納する。本実施
例では、帳票フォーマットが予め指定されており、文字
切出部3のメモリに、行バツフア2内の文字位置を示す
アドレスが格納されている。そのため、文字切出し動作
は、該アドレスで指定された行バッフ12の内容を読み
出すことにより実行される。The character cutting section 3 reads out a digital signal for one character (character slam) from the digital signal of the character image stored in the row bang 72, and stores it in the bang register 4. In this embodiment, the form format is specified in advance, and the address indicating the character position within the line buffer 2 is stored in the memory of the character cutting section 3. Therefore, the character extraction operation is executed by reading the contents of the row buffer 12 specified by the address.
(ff) 文字枠検出・線幅測定処理文字枠検出部5
では、バタンレジスタ4のバタンを走査してそのバタン
の左端座標X、I!、右端座標Xr、上端座標Yt及び
下端座標Ybを検出する。外接枠、つまり文字枠は(X
J!、Yt)、(XJI、Yb)、(Xr、Yt)、(
Xr、Yb)の4点を結ぶ矩形枠となる。(ff) Character frame detection/line width measurement processing character frame detection section 5
Now, scan the button in the button register 4 and find the left end coordinates of the button X, I! , the right end coordinate Xr, the upper end coordinate Yt, and the lower end coordinate Yb are detected. The circumscribing frame, that is, the character frame is (X
J! , Yt), (XJI, Yb), (Xr, Yt), (
A rectangular frame connects the four points (Xr, Yb).
また、文字枠検出後は、特徴間の正規化を行うために、
必要な文字枠の大きさを算出する。即ち、バタンレジス
タ4のX軸に対し、平行な方向(水平方向)の文字枠の
大きさをWPhとしてWPh=Xr−XJ+1を、垂直
な方向(垂直方向)の文字枠の大きさをWPVとしてW
Pv=Yt−Yb+1を、それぞれ締出する。さらに、
右斜め及び左斜め45°方向の文字枠の大きさをWPr
及びWPNとして
を締出する。In addition, after character frame detection, in order to normalize between features,
Calculate the size of the required character frame. In other words, the size of the character frame in the parallel direction (horizontal direction) to the X-axis of the button register 4 is WPh = Xr - XJ + 1, and the size of the character frame in the perpendicular direction (vertical direction) is WPV. W
Pv=Yt-Yb+1 are respectively excluded. moreover,
The size of the character frame in the diagonal right and 45° left diagonal directions is WPr.
and WPN.
一方、線幅測定部6では、バタンレジスタ4からのディ
ジタル信号を入力し、例えば2X2の窓の全ての点が黒
ビットとなる状態の個数Qと、全黒ビットの個数Aとを
計数し、従来周知の(1)式に従って線幅WLを算出す
る。On the other hand, the line width measurement unit 6 inputs the digital signal from the button register 4, and counts the number Q of states in which all points in a 2×2 window are black bits, and the number A of all black bits, for example. The line width WL is calculated according to the conventionally known formula (1).
WL=A/ (A−Q) ・・・・・・(
1)(III) 文字傾斜検出処理
文字傾斜検出部7は、バタンレジスタ4に格納された文
字バタンについて傾斜度を抽出する。この抽出方法を、
第4図、第5図(a)、(b)及び第6図(a)、(b
)を参照しつつ説明する。WL=A/ (A-Q) ・・・・・・(
1) (III) Character slant detection processing The character slant detection section 7 extracts the slant degree of the character slams stored in the button register 4. This extraction method
Figure 4, Figure 5 (a), (b) and Figure 6 (a), (b)
).
第5図(a>、(b)は傾斜度検出方法を説明するため
の特徴点の検出例を示す図である。X−Y座標系で表現
される平面には、被抽出バタンM2である傾きのない文
字(第5図(a))と斜体字(第5図(b))とが示さ
れている。BL、 BR,TL、TRは特徴点である。FIGS. 5(a) and 5(b) are diagrams showing an example of detecting feature points to explain the slope detection method.On the plane expressed in the X-Y coordinate system, there is a button M2 to be extracted. Characters with no slope (FIG. 5(a)) and italic characters (FIG. 5(b)) are shown. BL, BR, TL, and TR are feature points.
第6図(a)。Figure 6(a).
(b)は、文字傾斜検出方法を説明するもので、同図(
a)は最大値処理のフローチャート、及び同図(b)は
最小値処理のフローチャートである。(b) explains the character slant detection method;
FIG. 11A is a flowchart of maximum value processing, and FIG. 10B is a flowchart of minimum value processing.
この文字傾斜検出処理を、(A)特徴点TL、BR座標
の検出処理と、(B)特徴点BL、TR座標の検出処理
と、(C)傾斜度算出処理とに分けて以下説明する。This character inclination detection process will be explained below by dividing into (A) detection process of feature point TL and BR coordinates, (B) detection process of feature point BL and TR coordinates, and (C) inclination calculation process.
(A>特徴点TL、BR座標の検出処理この処理では、
第3図の座標検出手段30等により、次のような(1)
〜(5)の処理ステップで実行される。(A> Detection process of feature points TL and BR coordinates In this process,
The following (1) is detected by the coordinate detection means 30 shown in FIG.
This is executed in the processing steps of ~(5).
(1) ステップ81〜S3
先ず、バタンレジスタ4の走査を開始し、そのバタンレ
ジスタ4より出力された画像データMを、文字傾斜検出
部7に入力する(ステップ31)。(1) Steps 81 to S3 First, scanning of the slam register 4 is started, and the image data M output from the slam register 4 is input to the character slant detection section 7 (step 31).
この画像データMは、画素毎に座標検出手段30内の最
大値検出手段32及び最小値検出手段34に入力される
。This image data M is input to the maximum value detection means 32 and the minimum value detection means 34 in the coordinate detection means 30 for each pixel.
これと共に、X座標発生手段2つ及びY座標発生手段2
2は、画像データMの出力と同期させて、この画像デー
タMの各画素毎に対応付けたX、Y座標を発生する。そ
の結果、これら発生手段21゜22により、画像データ
MにX、Y座標の付与が行われる。そして出力されたX
、Y座標は、座標検出手段30内のX十Y計算手段31
、最大値座標保存手段33、及び最小値座標保存手段3
5に入力される(ステップ82>。Along with this, two X coordinate generating means and two Y coordinate generating means are provided.
2 generates X and Y coordinates associated with each pixel of the image data M in synchronization with the output of the image data M. As a result, these generating means 21 and 22 assign X and Y coordinates to the image data M. and the output X
, Y coordinates are determined by the X+Y calculation means 31 in the coordinate detection means 30.
, maximum value coordinate storage means 33, and minimum value coordinate storage means 3
5 (step 82>).
X+Y計輝手段31はX、Y座標を入力すると、これら
X、Y座標から計算値X十Yを算出し、算出した計算値
を最大値検出手段32及び最小値検出手段34へ出力す
る(ステップ33)。ステップ82〜S3[よって、最
大値検出手段32は画像データM及び計算値を、最小値
検出手段34は画像データM及び計算値を、最大値座標
保存手段33はX、Y座標を、最小値座標保存手段35
はX、Y座標を、それぞれ1画素毎に入力する。そして
、座標検出手段30は、後述のステップS4、S5a、
S5b或いはS7の判断を1画素毎に繰り返し実行し、
その判断結果に応じた処理を行う。When the X+Y metering means 31 inputs the X and Y coordinates, it calculates the calculated value X + Y from these X and Y coordinates, and outputs the calculated value to the maximum value detection means 32 and the minimum value detection means 34 (step 33). Steps 82 to S3 [Thus, the maximum value detection means 32 receives the image data M and the calculated value, the minimum value detection means 34 receives the image data M and the calculated value, and the maximum value coordinate storage means 33 stores the X and Y coordinates, and the minimum value Coordinate storage means 35
Inputs the X and Y coordinates for each pixel. Then, the coordinate detection means 30 performs steps S4, S5a, which will be described later.
Repeating the judgment in S5b or S7 for each pixel,
Processing is performed according to the determination result.
(2) ステップS4
最大値検出手段32及び最小値検出手段34は、入力さ
れた画像データMの画像が所定の画素値(例えば、“1
′)であるか否かを判断する。(2) Step S4 The maximum value detection means 32 and the minimum value detection means 34 detect that the image of the input image data M has a predetermined pixel value (for example, "1").
').
■ 所定の画素値を有さないとき
最大値検出手段32及び最小値検出手段34は、格納し
ている比較値を書換えず、これと共に最大値座標保存手
段33及び最小値座標保存手段35も、格納されている
X、Y座標を書換えない。検出手段32.34は、ステ
ップS4の次に、ステップS7の判断を行う。(2) When the pixel does not have a predetermined pixel value, the maximum value detection means 32 and the minimum value detection means 34 do not rewrite the stored comparison values, and at the same time, the maximum value coordinate storage means 33 and the minimum value coordinate storage means 35 also Do not rewrite the stored X and Y coordinates. The detection means 32, 34 performs the determination in step S7 after step S4.
■ 所定の画素値を有するとき
最大値検出手段32はステップS4の次に比較値及び計
算値の比較(ステップ55a)を、最小値検出手段34
はステップS4の次に比較値及び計算値の比較(ステッ
プ55b)を、それぞれ行う。■ When the pixel value is a predetermined value, the maximum value detection means 32 compares the comparison value and the calculated value (step 55a) after step S4, and the minimum value detection means 34
After step S4, the comparison value and the calculated value are compared (step 55b).
(3) ステップS5a
このステップでは、計算値が比較値より大きいか否かを
判断し、その判断結果に応じた次のような処理を実行す
る。(3) Step S5a In this step, it is determined whether the calculated value is greater than the comparison value, and the following processing is executed depending on the determination result.
■ 計算値〉比較値のとき
最大値検出手段32は、先に格納されている比較値に代
えて、比較値よりも大きい計算値を新たな比較値として
格納しく比較値の書換え)、これと共にセットパルスを
最大値座標保存手段33へ出力する。セットパルスを入
力した最大値座標保存手段33は、格納されているX、
Y座標に代えて、比較値よりも大きな計算値を与える画
素のX、Y座標を新たに格納する( rX、Y座標の書
換え」ステップ36)。■ When the calculated value>comparison value, the maximum value detection means 32 stores a calculated value larger than the comparison value as a new comparison value instead of the previously stored comparison value (rewriting the comparison value), and at the same time The set pulse is output to the maximum value coordinate storage means 33. The maximum value coordinate storage means 33 into which the set pulse is input stores the stored X,
Instead of the Y coordinate, the X and Y coordinates of the pixel that gives a calculated value larger than the comparison value are newly stored ("Rewrite rX, Y coordinates" step 36).
■ 計算値≦比較値のとき
最大値検出手段32は、先に格納されている比較値を書
換えずにそのまま格納すると共に、最大値座標保存手段
33も、格納されているX、Y座標を書換えない。■ When the calculated value≦comparison value, the maximum value detection means 32 stores the previously stored comparison value without rewriting it, and the maximum value coordinate storage means 33 also rewrites the stored X and Y coordinates. do not have.
最大値検出手段32は、前記■及び■のいずれの場合も
、ステップS5aの次に、ステップS7の判断を行う。The maximum value detecting means 32 performs the determination in step S7 after step S5a in both cases (1) and (2).
なあ、最大値検出手段32に格納される比較値の初期値
としては、例えば計算値αとして取り得る値よりも小さ
な値を用いれば良い。例えば、α=β=1で、画像デー
タMを1行m列の画素に分割した(従って、O≦X≦m
−1、及びO≦Y≦1−1となる)場合には、−1を比
較値の初期値とすることができる。或は比較値の初期値
として、最大値検出手段32に一番最初に入力された計
算値αX+βyを用いるようにしても良い。Incidentally, as the initial value of the comparison value stored in the maximum value detection means 32, for example, a value smaller than the value that can be taken as the calculated value α may be used. For example, α=β=1, and the image data M is divided into 1 row and m columns of pixels (therefore, O≦X≦m
−1 and O≦Y≦1−1), −1 can be set as the initial value of the comparison value. Alternatively, the calculated value αX+βy inputted first to the maximum value detection means 32 may be used as the initial value of the comparison value.
また、最大値検出手段32は、比較値及びX、Y座標の
書換えを、計算値αx十βyが比較値よりも大きいとき
、及び計算値が比較値と等しいときに行うようにし、こ
れと共に計算値が比較値よりも小さいとき、比較値及び
X、Y座標の書換えを行わないようにしても良い。さら
に、最大値座標保存手段33のX、Y座標としては、任
意好適な数値を用いて良い。Further, the maximum value detection means 32 rewrites the comparison value and the X, Y coordinates when the calculated value αx + βy is larger than the comparison value, and when the calculated value is equal to the comparison value, and also performs the rewriting of the comparison value and the X, Y coordinates. When the value is smaller than the comparison value, the comparison value and the X, Y coordinates may not be rewritten. Furthermore, any suitable numerical values may be used as the X and Y coordinates of the maximum value coordinate storage means 33.
(4) ステップS5b
第6図(b)のステップS5bでは、計算値が比較値よ
り小さいか否かの判断を行い、その判断結果に基づき次
のような処理を実行する。(4) Step S5b In step S5b of FIG. 6(b), it is determined whether the calculated value is smaller than the comparison value, and the following processing is executed based on the determination result.
■ 計算値く比較値のとき
最小値検出手段34は、先に格納されている比較値に代
えて、比較値よりも小さい計算値を比較値として新たに
格納する(比較値の書換え)と共に、最小値座標保存手
段35ヘセツトパルスを出力する。最小値座標保存手段
35は、セットパルスを入力すると、格納されているX
、Y座標を、比較値よりも小さな計算値を与える画素の
X、Y座標に書換える(rX、Y座標の書換え」ステッ
プ36)。(i) When the calculated value is less than the comparison value, the minimum value detection means 34 stores a new calculated value smaller than the comparison value as a comparison value instead of the previously stored comparison value (rewrites the comparison value), and The minimum value coordinate storage means 35 outputs a set pulse. When the set pulse is input, the minimum value coordinate storage means 35 stores the stored
, Y coordinates are rewritten to the X, Y coordinates of the pixel that gives a calculated value smaller than the comparison value (rX, Y coordinate rewriting step 36).
■ 計算値≧比較値のとき
最小値検出手段34は、先に格納されている比較値を書
換えずにそのまま格納すると共に、最小値座標保存手段
35も、格納されているX、Y座標を書換えない。■ When the calculated value≧comparison value, the minimum value detection means 34 stores the previously stored comparison value without rewriting it, and the minimum value coordinate storage means 35 also rewrites the stored X and Y coordinates. do not have.
最小値検出手段34は、前記■及び■のいずれの場合に
も、ステップS5bの次に、ステップS7の判断を行う
。In both cases (1) and (2), the minimum value detection means 34 performs the determination in step S7 after step S5b.
なお、最小値検出手段34に格納される比較値の初期値
としては、例えば計算値αx十βyとして取り得る値よ
りも大きな値を用いれば良い。例えば、α=β=1で、
画像データMを1行m列の画素に分割した(従って、0
≦X≦m−1、及びO≦Y≦1−1となる)場合には、
m十n−1を比較値の初期値とすることができる。或は
比較値の初期値として最小値検出手段34に一番最初に
入力された計算値αx十βyを用いるようにしても良い
。Note that, as the initial value of the comparison value stored in the minimum value detection means 34, a value larger than the possible value of the calculated value αx + βy may be used, for example. For example, α=β=1,
Image data M is divided into 1 row and m columns of pixels (therefore, 0
≦X≦m-1 and O≦Y≦1-1),
m+n-1 can be set as the initial value of the comparison value. Alternatively, the calculated value αx+βy inputted first to the minimum value detection means 34 may be used as the initial value of the comparison value.
また、最小値検出手段34は、計算値が比較値よりも小
さいとき、及び計算値が比較値と等しいとき、比較値及
びX、Y座標の書換えを行い、これと共に計算値が比較
値よりも大きいとき、比較値及びX、Y座標の書換えを
行わないようにしても良い。ざらに、最小値座標保存手
段35のX、Y座標としては、任意好適な数値を用いて
良い。Further, the minimum value detection means 34 rewrites the comparison value and the X, Y coordinates when the calculated value is smaller than the comparison value or when the calculated value is equal to the comparison value, and at the same time, the calculated value is smaller than the comparison value. When the value is large, the comparison value and the X, Y coordinates may not be rewritten. In general, any suitable numerical values may be used as the X and Y coordinates of the minimum value coordinate storage means 35.
(5) ステップS7
ステップS7では、画像データMの走査を終了したか否
かを判断し、その判断結果に応じて次のような処理を実
行する。(5) Step S7 In step S7, it is determined whether or not scanning of the image data M has been completed, and the following processing is executed depending on the determination result.
■ 画像データMの走査を終了したとき最大値検出手段
32及び最小値検出手段34は、画像データMの走査が
終了し、データMの全画素につき処理が終了すると、X
、Y座標の出力信号を、最大値座標保存手段33及び最
小値座標保存手段35へ出力する。すると、座標保存手
段33゜35は、格納しているX、Y座標を特徴点座標
として出力する。これと共に検出手段32.34は、比
較値の初期化を行う(ステップ38)。■ When the scanning of the image data M is finished, the maximum value detection means 32 and the minimum value detection means 34 detect the
, Y coordinates are outputted to the maximum value coordinate storage means 33 and the minimum value coordinate storage means 35. Then, the coordinate storage means 33 and 35 output the stored X and Y coordinates as feature point coordinates. At the same time, the detection means 32, 34 initialize the comparison values (step 38).
全画素につき処理を終了した時点で、最大値座標保存手
段33及び最小値座標保存手段35に格納されているX
、Y座標が、最大及び最小計紳値を与える画素のX、Y
座標、すなわち特徴点座標となる。When processing is completed for all pixels, the X stored in the maximum value coordinate storage means 33 and the minimum value coordinate storage means 35
, Y coordinates of the pixel that gives the maximum and minimum values
coordinates, that is, feature point coordinates.
座標検出手段30では、α=β−1としたので、全処理
終了時点で、例えば第5図に示す被抽出パタンM2の特
徴点BRの座標が、最大値座標保存手段33に格納され
ており、また特徴点下りの座標が、最小値座標保存手段
35に格納されている。In the coordinate detection means 30, α=β−1, so at the end of all processing, for example, the coordinates of the feature point BR of the extracted pattern M2 shown in FIG. 5 are stored in the maximum value coordinate storage means 33. , and the downward coordinates of the feature points are stored in the minimum value coordinate storage means 35.
■ 画像データMの走査が終了しないとき座標検出手段
30は、画像データMの走査が終了せず、従ってデータ
Mの全画素につき処理か終了していなければ、画像デー
タMの残りの画素につき、ステップ34.S5a、S5
b或はS7の判断を行い、その判断結果に応じた処理を
行う。■ When the scanning of the image data M is not completed If the scanning of the image data M is not completed and the processing has not been completed for all pixels of the data M, the coordinate detection means 30 detects the remaining pixels of the image data M. Step 34. S5a, S5
b or S7 is made, and processing is performed according to the result of the judgment.
(B)特徴点BL、TR座標の検出処理この処理は、座
標検出手段40等で行われる処理である。即ち、座標検
出手段40は、上述した座標検出手段30の動作と並行
してその座標検出手段30とほぼ同様の処理を行う。(B) Detection processing of feature point BL and TR coordinates This processing is performed by the coordinate detection means 40 and the like. That is, the coordinate detection means 40 performs almost the same processing as the coordinate detection means 30 in parallel with the operation of the coordinate detection means 30 described above.
この座標検出手段40では、α=1及びβ=−1とした
ので、全画素につき処理を終了した時点で、例えば、第
5図に示す被抽出パタンM2の特徴点TRの座標が、最
大値座標保存手段43に格納されており、また特徴点B
Lの座標が、最小値座標保存手段45に格納されている
。In this coordinate detection means 40, α=1 and β=-1, so when the processing is completed for all pixels, for example, the coordinates of the feature point TR of the extracted pattern M2 shown in FIG. 5 will be the maximum value. It is stored in the coordinate storage means 43, and the feature point B
The coordinates of L are stored in the minimum value coordinate storage means 45.
(C)傾斜度算出処理 前記処理(A>、(B)で、特徴点TR,TL。(C) Slope calculation process In the processing (A>, (B)), the feature points TR and TL.
SR,BLの4点の座標(TRx、TRy>。Coordinates of the four points SR and BL (TRx, TRy>.
(TLX、TLV)、(BRx、BRy)、(BLX、
Blj’)が検出されると、傾斜度算出手段50では、
該4点の座標より、入力文字パタンの傾斜角度に相当す
る値(傾斜度)THを次式に従って計算する。(TLX, TLV), (BRx, BRy), (BLX,
When Blj') is detected, the inclination calculation means 50 performs the following steps.
From the coordinates of the four points, a value (degree of inclination) TH corresponding to the inclination angle of the input character pattern is calculated according to the following formula.
即ち、傾斜度算出手段50は、(2)式を用いて、4個
の特徴点を結んで得られる四辺形の右辺の上端と下端の
X座標値の差と、左辺の上端と下端のX座標値の差の平
均を、文字高さの平均で割った値を傾斜度THとして出
力し、サブパタン抽出部9へ与える。That is, the inclination calculation means 50 uses equation (2) to calculate the difference between the X coordinate values of the upper and lower ends of the right side of the quadrilateral obtained by connecting the four feature points, and the X coordinate values of the upper and lower ends of the left side. A value obtained by dividing the average difference in coordinate values by the average character height is outputted as the slope TH and given to the sub-pattern extracting section 9.
(IV) 分割点検出処理
分割点検出部8では、外接枠内領域をNXXNY個の部
分領域に分割するためのX軸上及びY軸上の分割点座標
を、各外接枠毎に決定する。但し、NXはX軸方向にお
ける分割数、及びNYはY軸方向における分割数である
。(IV) Division Point Detection Process The division point detection unit 8 determines division point coordinates on the X-axis and Y-axis for dividing the area within the circumscribing frame into NXXNY partial areas for each circumscribing frame. However, NX is the number of divisions in the X-axis direction, and NY is the number of divisions in the Y-axis direction.
分割数NX及びNYは、文字の複雑さに応じて任意好適
な値に設定するのが好ましい。例えば、漢字・カタカナ
等の画数の少ない文字を認識対象とする場合は、(2X
2)〜(3X3)程度の少ない数の部分領域に、外接枠
内領域を分割する。The numbers of divisions NX and NY are preferably set to arbitrary suitable values depending on the complexity of the characters. For example, when recognizing characters with a small number of strokes such as kanji and katakana, (2X
2) Divide the area within the circumscribing frame into a small number of partial areas of about 3×3.
漢字が認識対象となる場合には、(4X4)〜(8X8
)程度の部分領域に、外接枠内領域を分割することが多
い。しかし、本実施例では、認識対象の複雑さにかかわ
らず、外接枠内領域を等分割、例えば(4X4)個に分
割するようにした。When kanji are to be recognized, (4X4) to (8X8
) The area within the circumscribing frame is often divided into partial areas of approximately However, in this embodiment, regardless of the complexity of the recognition target, the area within the circumscribed frame is divided into equal parts, for example, into (4×4) parts.
X軸上の分割座標DX(n>、及びY軸上の分割座標D
Y (n)は、次式(4)、(5)で決定される。The division coordinate on the X axis DX (n>, and the division coordinate D on the Y axis
Y (n) is determined by the following equations (4) and (5).
DX(n>
・・・・・・(3〉
DY (m)
但し、n=1.2. ・−・−・、NX−lm=1.2
.−−−−−・、NY−1
本実施例では、例えば
NX=NY=4
(V) サブパタン抽出処理
第7図(a)、(b>は、サブパタンの抽出方法を示す
図であり、同図(a)は文字バタンの例、及び同図(b
)は垂直サブパタンの例である。第7図(a)中の矢印
Pは、垂直サブパタン抽出時の走査経路を示す。DX (n>・・・・・・(3> DY (m) However, n=1.2. ・−・−・, NX−lm=1.2
.. ------・, NY-1 In this embodiment, for example, NX=NY=4 (V) Sub-pattern extraction process FIGS. Figure (a) is an example of a character slam, and the same figure (b)
) is an example of a vertical sub-pattern. An arrow P in FIG. 7(a) indicates a scanning path when vertical sub-patterns are extracted.
サブパタン抽出部9では、文字傾斜検出部7で得られた
傾斜度に基づき、垂直サブパタン抽出部9a、水平サブ
パタン抽出部9b、右斜めサブパタン抽出部9C及び左
斜めサブパタン抽出部9dにより、それぞれバタンレジ
スタ4上に設定したX軸方向にほぼ垂直な方向(垂直方
向)及び平行な方向(水平方向)と、X軸から反時計方
向45°の方向(右斜め45°方向)及び時計方向45
°の方向(左斜め45°方向)とを、主走査方向として
バタンレジスタ4を走査し、各主走査方向に対応する垂
直、水平、右斜め及び左斜めサブパタンを抽出する。In the sub-pattern extraction section 9, based on the slant degree obtained by the character slant detection section 7, a vertical sub-pattern extraction section 9a, a horizontal sub-pattern extraction section 9b, a right-diagonal sub-pattern extraction section 9C, and a left-diagonal sub-pattern extraction section 9d each extract a button register. 4 Directions almost perpendicular to the X-axis direction (vertical direction) and parallel directions (horizontal direction), 45° counterclockwise direction from the X-axis (45° diagonal right direction), and 45° clockwise direction
The button register 4 is scanned with the direction of 45° diagonally to the left (45 degrees diagonally to the left) as the main scanning direction, and vertical, horizontal, diagonal right, and diagonal left sub-patterns corresponding to each main scanning direction are extracted.
本実施例においては、例えば第7図(a)の斜体字を認
識対象としているので、前記傾斜検出部7では、文字の
4個の特徴点の座標を結んで得られる四辺形の右辺と左
辺の傾斜から、文字の傾斜度を抽出している。この傾斜
は、垂直サブパタンの傾斜によるものであるので、文字
バタンを該傾斜に基づき走査し、垂直サブパタンを抽出
する。In this embodiment, for example, the italic character shown in FIG. The slope of the character is extracted from the slope of the character. Since this inclination is due to the inclination of the vertical sub-pattern, the character stamp is scanned based on the inclination to extract the vertical sub-pattern.
この垂直ザブバタン抽出部9aの動作を説明する。The operation of this vertical bump extractor 9a will be explained.
垂直サブパタン抽出部9aでは、文字傾斜検出部7で得
られた傾斜度に基づき、第7図(a)の文字バタンを走
査し、走査線上で連続する黒ビット(黒ラン)を検出す
る。そして、検出した黒ランのなかから次式(5)を満
足する長ざjの黒ランを抽出する。The vertical sub-pattern extraction section 9a scans the character stamp shown in FIG. 7(a) based on the degree of inclination obtained by the character inclination detection section 7, and detects continuous black bits (black runs) on the scanning line. Then, a black run with a length j that satisfies the following equation (5) is extracted from the detected black runs.
g≧N−WL ・・・・・・(5)但し
、g;主走査方向における黒ラ
ンの長さ
N;各サブパタンに対する任
意定数(例えば、2)
走査経路Pは次のとおりである。垂直走査は上辺から走
査を開始する。走査開始アドレス(Xa。g≧N−WL (5) However, g: length N of the black run in the main scanning direction; arbitrary constant for each sub-pattern (for example, 2) The scanning path P is as follows. Vertical scanning starts from the top edge. Scan start address (Xa.
YT)からの走査経路Pの座標(xH,yH)は、次式
(6)で表わすことができる。The coordinates (xH, yH) of the scanning path P from YT) can be expressed by the following equation (6).
x1=xa
y1=YT
x ・=Xa+THx (y 1−YT)VH=Vi−
1+1
・・・・・・(6)
但し、丁Hは実数、丁HX(V・−YT)の結果は小数
点以下切捨て、座標は全て整数である。x1=xa y1=YT x ・=Xa+THx (y 1-YT)VH=Vi-
1+1 (6) However, H is a real number, the result of HX (V·-YT) is rounded down to the decimal point, and all coordinates are integers.
垂直サブパタン抽出部9aは、(5)式を満足する黒ラ
ンを、サブパタンを構成する黒ランとみなして図示しな
い垂直サブパタンメモリに格納する。(5)式を満足し
ない黒ランは白ビットとみなす。The vertical sub-pattern extracting unit 9a regards the black runs that satisfy equation (5) as black runs constituting a sub-pattern and stores them in a vertical sub-pattern memory (not shown). Black runs that do not satisfy equation (5) are regarded as white bits.
同様に、水平、右斜め及び左斜めサブパタン抽出部9b
、9C,9dは、水平、右斜め及び左斜め方向を主走査
方向として原パタンを走査し、それぞれの主走査方向の
走査線上の黒ランのなかから、(5)式を満足する黒ラ
ンを抽出し、抽出した黒ランを、サブパタンを構成する
黒ランとみなして図示しない水平、右斜め及び左斜めサ
ブパタンメモリに格納する。Similarly, the horizontal, right diagonal and left diagonal sub-pattern extraction section 9b
, 9C, and 9d scan the original pattern with the horizontal, diagonal right, and diagonal left directions as the main scanning directions, and select black runs that satisfy equation (5) from among the black runs on the scanning lines in the respective main scanning directions. The extracted black runs are stored in horizontal, right diagonal, and left diagonal subpattern memories (not shown) as black runs constituting a subpattern.
本実施例では、水平、右斜め、及び左斜めサブパタンの
抽出時には、文字の傾きは考慮しない。In this embodiment, the inclination of characters is not considered when extracting horizontal, right diagonal, and left diagonal sub-patterns.
(Vl) 特徴マトリクス抽出処理
文字枠検出部5が文字バタンの外接枠を規定する座標X
、I)、Xr、Yt、Ybを検出し、さらに分割点検出
部8が文字パタンについて対象分割点座標を検出すると
、特徴マトリクス抽出部10ては、垂直、水平、右斜め
、及び左斜めサブパタンの各バタンから特重量を抽出し
、特徴マトリクスを作成する。(Vl) Coordinates X where the character frame detection unit 5 defines the circumscribed frame of the character stamp in the feature matrix extraction process
, I), Xr, Yt, and Yb, and further, when the division point detection unit 8 detects the target division point coordinates for the character pattern, the feature matrix extraction unit 10 extracts vertical, horizontal, right diagonal, and left diagonal sub-patterns. Extract the special weight from each bang and create a feature matrix.
即ち、特徴マトリクス抽出部10は、一つの外接枠内領
域を、対象分割点座標と座標XfJ、Xr。That is, the feature matrix extraction unit 10 converts one circumscribed frame area into target dividing point coordinates and coordinates XfJ, Xr.
Yt、YbとによってNXXNY個の部分領域に分割し
、各部分領域内のサブパタンの文字線量を表す特徴量を
抽出する。そして、一つの外接枠領域内の各サブパタン
から抽出したNXXNYX4個の特′重量から成る特徴
マトリクスを、当該外接枠内領域の特徴間マトリクスと
して抽出する。The area is divided into NXXNY partial areas based on Yt and Yb, and feature amounts representing the character dose of the subpattern in each partial area are extracted. Then, a feature matrix consisting of NXXNYX four special weights extracted from each sub-pattern within one circumscribed frame area is extracted as an inter-feature matrix for the circumscribed frame area.
まず、水平サブパタン(H3P)からの特徴量抽出につ
き説明する。First, feature extraction from the horizontal sub-pattern (H3P) will be explained.
特徴マトリクス抽出部10は、対象分割点座標と座標X
JII 、Xr、Yt、Ybとに基づき、外接枠内領域
をNXXNY個の部分領域に分割しく対象分割点座標及
び座標X、!!、Xr、Y↑、Ybは分割点座標である
)、各部分領域毎に部分領域内の水平サブパタンH3P
の黒ビット数BH(i。The feature matrix extraction unit 10 extracts target division point coordinates and coordinates
Based on JII, Xr, Yt, and Yb, the area within the circumscribing frame is divided into NXXNY partial areas and the target dividing point coordinates and coordinates X,! ! , Xr, Y↑, Yb are division point coordinates), horizontal sub-pattern H3P within the partial area for each partial area.
The number of black bits BH(i.
j)を計数する。j).
分割点座標から分割領域の決定は、次のように行う。ま
ず、X軸上の分割点座標DX(n>を、文字パタンの外
接枠の上端と下端の中点を通りX軸に平行な直線上に設
定する。この座標を起点として、次式(7)〜(9)で
求められる座標系列の左側を、第7図(b)に示すよう
な分割境界Sとする。The division area is determined from the division point coordinates as follows. First, set the division point coordinates DX (n>) on the X-axis on a straight line parallel to the X-axis passing through the midpoint of the upper and lower edges of the circumscribed frame of the character pattern. From this coordinate as a starting point, use the following equation (7 The left side of the coordinate series obtained by ) to (9) is defined as a division boundary S as shown in FIG. 7(b).
X□=DX(n>
y□=(YT+YB)/2
・・・・・・(7〉
(X□、 y□)から、下方への座標系列は、X・=D
X (n)
INT (THx (y i−y□) +0.5)yi
=VH、+1
・・・・・・(8)
但し、;=1.2.3゜
((YT−YB)/2−YT)
(x□、y□)から、上方への座標系列は、x j=D
X (n)
十INT (THX (V□ V j) +0.5)
yj=yj+1 1
・・・・・・(9)
但し、j=−1,−2,−3,・・・・・・。X□=DX (n> y□=(YT+YB)/2 ・・・・・・(7> From (X□, y□), the coordinate series downward is X・=D
X (n) INT (THx (y i-y□) +0.5)yi
=VH, +1 ・・・・・・(8) However, ;=1.2.3゜((YT-YB)/2-YT) From (x□, y□), the upward coordinate series is: xj=D
X (n) 10 INT (THX (V□ V j) +0.5)
yj=yj+1 1...(9) However, j=-1,-2,-3,...
(YB−(YT−YB)/2)
で求める。但し、INT()は、その()内の演算を実
数値を用いて行い、情果の小数点以下を切捨てて、整数
値とすることを表す。(YB-(YT-YB)/2). However, INT() indicates that the calculation within the parentheses is performed using a real value, and the decimal part of the result is rounded down to an integer value.
水平方向の分割境界Sは、DY (m>より、水平方向
に設定する。The horizontal division boundary S is set in the horizontal direction from DY (m>).
以上のように分割された分割領域毎に、水平サブパタン
H3Pの黒ビット数BH(i、j)を計数する。このB
H(i、j)は、一つの外接枠内領域に関する第i行第
j列の部分領域の黒ビット数である。次に、(10)式
に従って第i行第J列の部分領域に関する特徴間FH(
i、j>を計算する。The number of black bits BH (i, j) of the horizontal sub-pattern H3P is counted for each divided area divided as described above. This B
H(i,j) is the number of black bits in the partial area at the i-th row and j-th column regarding one circumscribed frame area. Next, according to equation (10), the inter-feature FH (
Calculate i, j>.
ざらに、H3Pの場合と同様にして、第i行第j列の部
分領域(7)VSP、H3P、LSP(7)黒1:jッ
ト数BV (i、 j)、 BR(i、 j>、 BL
(i、j>を計数し、次式(11)〜(13)に従って
第i行第j列の部分領域に関するVSP。Roughly, in the same way as in the case of H3P, the partial area of the i-th row and j-th column (7) VSP, H3P, LSP (7) Black 1: j number of bits BV (i, j), BR (i, j >、BL
(i, j> is counted, and the VSP for the partial area in the i-th row and j-th column is calculated according to the following equations (11) to (13).
H3P、LSPの持重量FV(i、j>、FR(i、j
>、FL(i、j)を算出する。H3P, LSP holding weight FV(i, j>, FR(i, j
>, calculate FL(i,j).
但し、i=1.2.・・・・・・、NXj=1.2.−
・・・・・、NY
WL;線幅
WPh;文字幅(=Xr−X、Q +1 )但し、
WPV:文字高さ(=Yb−Yt+1>WPr=WPl
= (WPv+WPh>/2以上のようにして、外接
枠内領域の各部分領域毎にVSP、H3P、H3P、L
SPの特徴間を抽出し、これらNXXNYX4個の持重
量から成る特徴マトリクスF (k)(k=1.2.・
・・・・・。However, i=1.2. ......, NXj=1.2. −
・・・・・・, NY WL; Line width WPh; Character width (=Xr-X, Q +1) However, WPV: Character height (=Yb-Yt+1>WPr=WPl
= (WPv+WPh>/2 or more, VSP, H3P, H3P, L for each partial area of the area within the circumscribed frame
The SP features are extracted and a feature matrix F (k) (k=1.2.
・・・・・・.
NXxNYx4)を得る。特徴マトリクス抽出部10は
、特徴マトリクスF (k)を各外接枠領域毎に抽出し
、その抽出結果を識別部11へ送る。NXxNYx4) is obtained. The feature matrix extraction unit 10 extracts the feature matrix F (k) for each circumscribed frame region, and sends the extraction result to the identification unit 11 .
(VI ) 識別処理
識別部11は、抽出された特徴マトリクスF(k)と、
内部に設けられた辞書メモリ内の特徴マトリクスG (
k>とを、照合することにより、該特徴マトリクスF
(k)を得た外接枠内領域の文字図形の認識を行う。こ
の認識では、次式(14)に従って特徴マトリクスF
(k)とG (k)間の距離りを求め、距離りが最小と
なる特徴マトリクスG (k)の標準文字の文字名(例
えば、JIS規格に定められた文字コード)OUTを認
識結果として出力する。(VI) The identification processing identification unit 11 uses the extracted feature matrix F(k),
Feature matrix G (
k>, the feature matrix F
Recognize the characters and figures in the area within the circumscribed frame obtained in (k). In this recognition, the feature matrix F is calculated according to the following equation (14).
Find the distance between (k) and G (k), and use the character name (for example, the character code specified in the JIS standard) of the standard character in the feature matrix G (k) with the minimum distance as the recognition result. Output.
以上のように、本実施例では、次のような利点を有して
いる。As described above, this embodiment has the following advantages.
(a> 本実施例では、バタンレジスタ4内の文字バ
タンを含むX−Y座標系で表現される平面において、文
字パタンの黒画素に関するαX十βyの最大値及び最小
値を与える座標を文字傾斜検出部7で検出し、さらにそ
の座標に基づき文字パタンの傾斜角を検出する。そして
、サブパタン抽出部9で、該傾斜角に従ってサブパタン
を抽出している。そのため、傾斜を有する文字パタンに
ついても、抽出される特徴が安定となる。従って、文字
傾斜の変形に対応した辞書を識別部11内に用意する必
要がなく、辞書容量の減少により、照合時間の短縮とそ
れによる処理速度の高速化が図れると共に、ハード規模
が小さく、認識精度の良い文字認識が可能となる。(a> In this embodiment, in the plane expressed by the X-Y coordinate system that includes the character slam in the button register 4, the coordinates that give the maximum and minimum values of αX and βy regarding the black pixels of the character pattern are The detecting unit 7 detects the character pattern, and further detects the inclination angle of the character pattern based on the coordinates.Then, the sub-pattern extracting unit 9 extracts the sub-pattern according to the inclination angle.Therefore, even for character patterns having an inclination, The extracted features become stable.Therefore, there is no need to prepare a dictionary in the identification unit 11 that accommodates the deformation of the character slope, and by reducing the dictionary capacity, the matching time can be shortened and the processing speed can be increased. At the same time, the hardware size is small and character recognition with high recognition accuracy becomes possible.
(b) 上記実施例では、第2図のような印刷文字に
おける斜体字の特徴抽出方法と認識方法について説明し
たが、認識対象文字は、これに限定されない。例えば、
手書き文字の法学で、右上がりに記入された文字を認識
対象とする場合は、文字の水平辺が傾斜しているものと
して、上記実施例とほぼ同様の処理で認識することがで
きる。(b) In the above embodiment, a method for extracting features and a method for recognizing italic characters in printed characters as shown in FIG. 2 has been described, but characters to be recognized are not limited thereto. for example,
In the law of handwritten characters, when a character written upward to the right is to be recognized, the horizontal side of the character is assumed to be inclined, and the recognition can be performed using substantially the same process as in the above embodiment.
なお、本発明は、上記実施例に限定されず、種々の変形
が可能ある。その変形例としては、例えば次のようなも
のがある。Note that the present invention is not limited to the above embodiments, and various modifications are possible. Examples of such modifications include the following.
(i) 上記実施例の特徴抽出方法は、例えば前記文献
2に記載されたような、文字バタンの走査により特徴の
抽出を行う方法にも適用できる。例えば、前記文献2の
方法では、走査線とストロークの交差数を特徴量として
いるので、ストロークに傾斜があると、走査方向を固定
したとき、抽出される交差数が大きく変動する。そこで
、上記実施例の方法によって傾斜を抽出し、該傾斜に従
つて特徴抽出を行えば、上記実施例とほぼ同様の効果が
得られる。(i) The feature extraction method of the above embodiment can also be applied to a method of extracting features by scanning character stamps, such as that described in Document 2 above. For example, in the method of Document 2, the number of intersections between a scanning line and a stroke is used as a feature, so if the stroke has an inclination, the number of intersections extracted will vary greatly when the scanning direction is fixed. Therefore, by extracting the slope using the method of the above embodiment and performing feature extraction according to the slope, substantially the same effect as that of the above embodiment can be obtained.
(ii) 第4図の文字傾斜検出部7を、他の機能ブ
ロックで構成したり、あるいはそれらの機能ブロックを
、コンピュータを用いたプログラム制御等で実行する構
成にしてもよい。さらに、その文字傾斜検出処理を、第
6図(a)、(b)以外の処理フローチャートで実行し
てもよい。(ii) The character inclination detection section 7 shown in FIG. 4 may be constructed of other functional blocks, or these functional blocks may be executed under program control using a computer. Furthermore, the character inclination detection process may be executed using process flowcharts other than those shown in FIGS. 6(a) and 6(b).
(発明の効果)
以上詳細に説明したように、第1の発明によれば、文字
パタンを含むX−Y座標系で表現される平面において、
αX十βyの最大値及び最小値を与える座標を求め、そ
の座標に基づき文字パタンの傾斜角を検出する。次に、
その傾斜角に従って文字パタンを走査し、走査線とスト
ロークの交差数等といった特徴を抽出するようにしてい
る。そのため、傾斜を有する文字パタンについても、抽
出される特徴が安定となる。従って、文字傾斜の変形に
対応した辞書を用意する必要がなく、処理速度が速く、
小さなハード規模で、認識精度の良い文字認識が可能と
なる。(Effects of the Invention) As explained in detail above, according to the first invention, in a plane expressed by an X-Y coordinate system including a character pattern,
The coordinates giving the maximum and minimum values of αX and βy are determined, and the inclination angle of the character pattern is detected based on the coordinates. next,
The character pattern is scanned according to the inclination angle, and features such as the number of intersections between scanning lines and strokes are extracted. Therefore, the extracted features are stable even for character patterns having an inclination. Therefore, there is no need to prepare a dictionary that corresponds to the deformation of the character slope, and the processing speed is fast.
Character recognition with high recognition accuracy is possible on a small hardware scale.
第2の発明では、検出された傾斜角に従ってサブパタン
を抽出し、その後、そのサブパタンの特徴を抽出してい
るので、前記第1の発明とほぼ同様の効果が得られる。In the second invention, a sub-pattern is extracted according to the detected tilt angle, and then the features of the sub-pattern are extracted, so that substantially the same effect as the first invention can be obtained.
第1図は本発明の実施例を示す特徴抽出方法を用いた文
字認識装置の機能ブロック図、第2図は斜体字の例を示
す図、第3図(a)〜(d)は従来の特徴抽出方法を説
明するための図、第4図は第1図における文字傾斜検出
部の機能ブロック図、第5図(a)、(b)は傾斜度検
出方法を説明するための特徴点の検出例を示す図、第6
図(a)。
(b)は文字傾斜検出のフローチャート、第7図(a)
、(b>はサブパタン抽出方法を説明するための図であ
る。
1・・・・・・光電変換部、2・・・・・・行バッファ
、3・・・・・・文字切出部、4・・・・・・バタンレ
ジスタ、5・・・・・・文字枠検出部、6・・・・・・
線幅測定部、7・・・・・・文字傾斜検出部、8・・・
・・・分割点検出部、9・・・・・・サブパタン抽出部
、10・・・・・・特徴マトリクス抽出部、11・・・
・・・識別部、21・・・・・・X座標発生手段、22
・・・・・・Y座標発生手段、30,40・・・・・・
座標検出手段、50・・・・・・傾斜度算出手段。FIG. 1 is a functional block diagram of a character recognition device using a feature extraction method showing an embodiment of the present invention, FIG. 2 is a diagram showing an example of italic characters, and FIGS. Figure 4 is a functional block diagram of the character slant detection section in Figure 1, and Figures 5 (a) and (b) are diagrams for explaining the feature extraction method. Diagram showing a detection example, No. 6
Figure (a). (b) is a flowchart of character slant detection, Fig. 7 (a)
, (b> is a diagram for explaining the sub-pattern extraction method. 1...Photoelectric conversion unit, 2...Line buffer, 3...Character cutting unit, 4...Bang register, 5...Character frame detection unit, 6...
Line width measurement section, 7...Character slope detection section, 8...
... Division point detection section, 9 ... Sub pattern extraction section, 10 ... Feature matrix extraction section, 11 ...
. . . Identification unit, 21 . . . X coordinate generation means, 22
...Y coordinate generation means, 30, 40...
Coordinate detection means, 50... Slope calculation means.
Claims (1)
、複数の方向に走査して該文字パタンの特徴を抽出する
特徴抽出方法において、 前記文字パタンを含むX−Y座標系で定義される平面に
おいて、少なくとも2組の特定の実数α、βについて前
記文字パタンの黒画素に関するαx+βy(但し、x、
yはX−Y座標系の座標値)の最大値及び最小値を与え
る座標を求め、該座標に基づき前記文字パタンの傾斜角
を検出し、該傾斜角に基づき前記文字パタンを走査して
特徴を抽出することを特徴とする特徴抽出方法。 2、媒体上の文字を光電変換して得られる文字パタンを
複数の方向に走査し、該走査方向の黒画素の連続数と線
幅との関係により、該走査方向の線素成分を表わすサブ
パタンを抽出した後、 前記サブパタンを複数の領域に分割してその分割された
領域毎に、前記サブパタンの線素量を表わす特徴を抽出
する特徴抽出方法において、前記文字パタンを含むX−
Y座標系で定義される平面において、少なくとも2組の
特定の実数α、βについて前記文字パタンの黒画素に関
するαx+βy(但し、x、yはX−Y座標系の座標値
)の最大値及び最小値を与える座標を求め、該座標に基
づき前記文字パタンの傾斜角を検出し、該傾斜角に従っ
て前記サブパタンを抽出することを特徴とする特徴抽出
方法。[Scope of Claims] 1. A feature extraction method for extracting features of a character pattern by scanning a character pattern obtained by photoelectrically converting characters on a medium in a plurality of directions, comprising: In the plane defined by the Y coordinate system, αx+βy (however, x,
Find the coordinates that give the maximum and minimum values (y is the coordinate value of the X-Y coordinate system), detect the inclination angle of the character pattern based on the coordinates, and scan the character pattern based on the inclination angle to determine the characteristics. A feature extraction method characterized by extracting. 2. A character pattern obtained by photoelectrically converting characters on a medium is scanned in multiple directions, and a sub-pattern representing a line element component in the scanning direction is created based on the relationship between the number of consecutive black pixels in the scanning direction and the line width. In the feature extraction method, the sub-pattern is divided into a plurality of regions and, for each divided region, a feature representing the amount of line elements of the sub-pattern is extracted.
In the plane defined by the Y coordinate system, the maximum and minimum values of αx + βy (where x, y are coordinate values in the X-Y coordinate system) regarding the black pixels of the character pattern for at least two sets of specific real numbers α and β. A feature extraction method comprising: determining coordinates that give a value, detecting an inclination angle of the character pattern based on the coordinates, and extracting the sub-pattern according to the inclination angle.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2100830A JPH04589A (en) | 1990-04-17 | 1990-04-17 | Method for extracting feature |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2100830A JPH04589A (en) | 1990-04-17 | 1990-04-17 | Method for extracting feature |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH04589A true JPH04589A (en) | 1992-01-06 |
Family
ID=14284238
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2100830A Pending JPH04589A (en) | 1990-04-17 | 1990-04-17 | Method for extracting feature |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH04589A (en) |
-
1990
- 1990-04-17 JP JP2100830A patent/JPH04589A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US5101439A (en) | Segmentation process for machine reading of handwritten information | |
| US5889885A (en) | Method and apparatus for separating foreground from background in images containing text | |
| Perwej et al. | Machine recognition of hand written characters using neural networks | |
| EP0843275A2 (en) | Pattern extraction apparatus and method for extracting patterns | |
| JPH0420226B2 (en) | ||
| RU2621601C1 (en) | Document image curvature eliminating | |
| US5926564A (en) | Character recognition method and apparatus based on 0-1 pattern representation of histogram of character image | |
| JPH08508128A (en) | Image classification method and apparatus using distribution map | |
| JPH05501776A (en) | Automatically centered text thickening for optical character recognition | |
| US5105470A (en) | Method and system for recognizing characters | |
| JPH04589A (en) | Method for extracting feature | |
| JP2749946B2 (en) | Character recognition method | |
| JP2749947B2 (en) | Character recognition method | |
| JP2616994B2 (en) | Feature extraction device | |
| JPH04590A (en) | Method for character recognition | |
| JP3196291B2 (en) | Character recognition method and device | |
| KR100269102B1 (en) | Numeric character recognition with neural network | |
| JP3948943B2 (en) | Graphic recognition method and apparatus | |
| JPH04591A (en) | Method for feature extraction | |
| JP2827288B2 (en) | Character recognition device | |
| JP3104355B2 (en) | Feature extraction device | |
| JPH03126188A (en) | Character recognizing device | |
| JPH01152586A (en) | Character graphic recognizing method | |
| JP2626084B2 (en) | Character recognition device | |
| JPH0798749A (en) | Handwritten character recognition method and apparatus |