JPH04588A - Method for recognizing character - Google Patents
Method for recognizing characterInfo
- Publication number
- JPH04588A JPH04588A JP2100829A JP10082990A JPH04588A JP H04588 A JPH04588 A JP H04588A JP 2100829 A JP2100829 A JP 2100829A JP 10082990 A JP10082990 A JP 10082990A JP H04588 A JPH04588 A JP H04588A
- Authority
- JP
- Japan
- Prior art keywords
- character
- coordinates
- value
- coordinate
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 29
- 239000011159 matrix material Substances 0.000 abstract description 30
- 230000002093 peripheral effect Effects 0.000 abstract description 26
- 239000000284 extract Substances 0.000 abstract description 14
- 230000000087 stabilizing effect Effects 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 91
- 238000000605 extraction Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000005484 gravity Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 241000931705 Cicada Species 0.000 description 1
- 241000321384 Gymnadenia rhellicani Species 0.000 description 1
- 241000519695 Ilex integra Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Landscapes
- Character Discrimination (AREA)
Abstract
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明は、媒体上の文字を光電変換して得られる文字パ
タンより、入力文字を認識する文字認識方法、特に高速
で、認識精度の良い文字認識方法に関するものである。Detailed Description of the Invention (Field of Industrial Application) The present invention relates to a character recognition method that recognizes input characters from a character pattern obtained by photoelectrically converting characters on a medium, which is particularly fast and has good recognition accuracy. It concerns a character recognition method.
(従来の技術)
従来5この種の文字認識方法とし2ては特開昭58−1
23171号公報に記載されるものがあった。(Prior art) 5 conventional character recognition methods of this type are Japanese Patent Application Laid-open No. 58-1.
There was one described in Publication No. 23171.
従来、媒体上の文字を認識する場合、手書き文字におい
ては、筆者の違いによる線素の移動速度や傾き、印刷文
字においては、フォント(字体)の違い等により、抽出
される特徴が変動するので、該特徴の変動に対応した辞
書を用意しなければならなかった。そのため4辞書容量
が増大し、さらにその辞書の照合に要する時間も増大し
、処理速度の低下、装置の大型化を招いていた。Conventionally, when recognizing characters on a medium, the extracted features vary due to the moving speed and slope of line elements due to differences in the writer in handwritten characters, and differences in font (font) in printed characters. , it was necessary to prepare a dictionary that accommodates changes in the characteristics. As a result, the capacity of the four dictionaries has increased, and the time required to collate the dictionaries has also increased, resulting in a decrease in processing speed and an increase in the size of the device.
そこで、前記文献の技術では、文字パタンを水平方向及
び垂直方向に走査して周辺分布を求め、該周辺分布の重
心位置により分割座標を決定している。これにより、文
字バタン上の領域を決定するための分割位置を線素の位
置移動に追従させることが可能となり、個人差に基づく
ストローク位置変動等の特徴の変動を吸収し、辞書容量
の減少による処理速度の高速化を図るようにしている。Therefore, in the technique of the above-mentioned document, the character pattern is scanned in the horizontal and vertical directions to obtain the peripheral distribution, and the dividing coordinates are determined based on the position of the center of gravity of the peripheral distribution. This makes it possible to make the dividing position for determining the area on the character stamp follow the movement of the line element position, absorbing fluctuations in characteristics such as stroke position fluctuations based on individual differences, and absorbing fluctuations in characteristics such as stroke position fluctuations due to individual differences, and We are trying to speed up the processing speed.
(発明が解決しようとする課題)
しかしながら、上記の文字認識方法では、次のような課
題があった。(Problems to be Solved by the Invention) However, the above character recognition method has the following problems.
第2図(a)、(b)は従来の文字認識方法を説明する
ための図であり、同図(a>は傾きのない文字パタンと
その周辺分布、及び同図(b)は斜体字の文字パタンと
その周辺分布についてそれぞれ示されている。Figures 2 (a) and (b) are diagrams for explaining the conventional character recognition method. The character patterns and their surrounding distribution are shown respectively.
従来の文字MX識方法では、入力文字パタンを水平方向
及び垂直方向に走査して周辺分布を求め、その周辺分布
の重心位置により分割座標を決定している。ところが、
第2図(b)に示すように、垂直線素に傾きを持つよう
な斜体字について周辺分布を抽出した場合、第2図(a
>に示すような傾きのない文字の場合と比較すると、垂
直線素の部分の濃度分布がなだらかになるため、検出さ
れる分割点座標値が異なったものとなる。しかも、傾き
のない文字については垂直線素と平行に分割されるが、
垂直線素に傾きを持つ斜体字については文字線が斜めに
分断されてしまう。従って、同じ文字字形でありながら
、抽出される特徴量が大きく異なったものとなり、文字
認識精度が低下してしまう。In the conventional character MX recognition method, an input character pattern is scanned in the horizontal and vertical directions to obtain a peripheral distribution, and division coordinates are determined based on the position of the center of gravity of the peripheral distribution. However,
As shown in Figure 2 (b), when the marginal distribution is extracted for an italic character whose vertical line elements have a slope, Figure 2 (a
Compared to the case of a character with no slope as shown in >, the density distribution in the vertical line element portion becomes gentler, so the detected division point coordinate values are different. Moreover, characters with no slope are divided parallel to the vertical line elements,
For italic characters with vertical line elements that are slanted, the character lines are divided diagonally. Therefore, even though the characters have the same shape, the extracted feature amounts are significantly different, resulting in a decrease in character recognition accuracy.
そこで、従来の文字認識方法では、このような特徴の変
動を吸収するために、様々な変形に対応する辞書を用意
していた。そのため、辞書容量が増大し、照合に時間が
かかり、それによってハード規模(装置規模)や処理時
間が増大するという問題があり、技術的に十分満足のゆ
くものが得られなかった。Therefore, in conventional character recognition methods, dictionaries that accommodate various transformations have been prepared in order to absorb such variations in characteristics. As a result, there were problems in that the dictionary capacity increased and collation took time, which increased the hardware scale (equipment scale) and processing time, and it was not possible to obtain a solution that was technically satisfactory.
本発明は前記従来技術が持っていた課題として、処理時
間の増大と装置の大型化という点について解決した文字
認識方法を提供するものである。The present invention provides a character recognition method that solves the problems of the prior art, such as an increase in processing time and an increase in the size of the device.
(課題を解決するための手段)
本発明は前記課題を解決するために、媒体上の文字を光
電変換して得られる文字パタンの外接枠を検出し、該外
接枠内を複数の領域に分割し、該分割された分割領域毎
に特徴を抽出した後、該抽出された特徴と予め用意した
標準特徴との照合により、前記文字を認識する文字認識
方法において、次のような手段を講じたものである。(Means for Solving the Problems) In order to solve the above problems, the present invention detects a circumscribing frame of a character pattern obtained by photoelectrically converting characters on a medium, and divides the inside of the circumscribing frame into a plurality of regions. After extracting features for each divided region, the character recognition method recognizes the characters by comparing the extracted features with standard features prepared in advance, and the following measures are taken. It is something.
即ち、前記文字パタンを含むX−Y座標系で定義される
平面において、少なくとも2組の特定の実数α、βにつ
いて前記文字パタンの黒画素に関するαχ+βy(但し
、刈yはX−Y座標系の座標値)の最大値及び最小値を
与える座標を求め、該座標に基づき前記文字パタンの傾
斜角を検出する。次に、前記傾斜角に基づき前記文字パ
タンを走査して周辺分布を抽出し、該周辺分布を使用し
て前記外接枠内の分割点を検出する。その後、前記傾斜
角及び分割点に基づき前記外接枠内の分割境界を設定し
、該分割境界に基づき前記外接枠内を複数の領域に分割
するようにしたものである。That is, in the plane defined by the X-Y coordinate system including the character pattern, αχ + βy regarding the black pixel of the character pattern for at least two sets of specific real numbers α and β (however, y is The coordinates giving the maximum and minimum values of the coordinate values) are determined, and the inclination angle of the character pattern is detected based on the coordinates. Next, the character pattern is scanned based on the inclination angle to extract a peripheral distribution, and dividing points within the circumscribed frame are detected using the peripheral distribution. Thereafter, a dividing boundary within the circumscribing frame is set based on the inclination angle and dividing point, and the inside of the circumscribing frame is divided into a plurality of regions based on the dividing boundary.
(作用)
本発明によれば、以上のように文字認識方法を構成した
ので、文字パタンが入力されると、その文字パタンに対
する外接枠を検出すると共に、該文字パタンの黒画素に
関するαX+βyの最大値及び最小値を与える座標を検
出し、その座標に基づき該文字パタンの傾斜角を検出す
る。そして、検出された傾斜角に従って周辺分布を抽出
し、その周辺分布を使用して外接枠内の分割点を検出す
る。(Function) According to the present invention, since the character recognition method is configured as described above, when a character pattern is input, the circumscribing frame for the character pattern is detected, and the maximum of αX+βy regarding the black pixels of the character pattern is detected. The coordinates giving the value and the minimum value are detected, and the tilt angle of the character pattern is detected based on the coordinates. Then, a peripheral distribution is extracted according to the detected inclination angle, and dividing points within the circumscribing frame are detected using the peripheral distribution.
次に、検出された傾斜角及び分割点に基づき、外接枠内
の分割境界を設定し、その設定された分割境界に基づき
外接枠内を複数の領域に分割する。Next, a dividing boundary within the circumscribing frame is set based on the detected inclination angle and dividing point, and the inside of the circumscribing frame is divided into a plurality of regions based on the set dividing boundary.
その後、分割された分割領域毎に特徴を抽出し、その特
徴と標準特徴との照合を行えば、入力文字の認識が行え
る。Thereafter, the input characters can be recognized by extracting features for each divided region and comparing the features with standard features.
このように、文字パタンの傾斜角を検出し、その傾斜角
に基づき、文字バタンを走査して周辺分布を抽出してい
るので、垂直軸に対して傾斜するような文字パタンにつ
いても、抽出される特徴が安定し、文字傾斜の変形に対
応した辞書を用意する必要がない。これにより、処理速
度の高速化と装置の小型化、及び認識精度の向上が図れ
る。従って、前記課題を解決できるのである。In this way, the inclination angle of the character pattern is detected, and based on that inclination angle, the character pattern is scanned and the marginal distribution is extracted, so character patterns that are inclined with respect to the vertical axis can also be extracted. The characteristics of the characters are stable, and there is no need to prepare a dictionary that accommodates the deformation of the character slant. This makes it possible to increase the processing speed, reduce the size of the device, and improve recognition accuracy. Therefore, the above problem can be solved.
(実施例)
第1図は、本発明の実施例を示すもので、文字認識方法
を説明するための文字認識装置の機能ブロック図である
。(Embodiment) FIG. 1 shows an embodiment of the present invention, and is a functional block diagram of a character recognition device for explaining a character recognition method.
この文字認識装置は、帳票等の媒体上の文字画像の光信
号INを量子化された電気信号(ディジタル信号)に変
換する光電変換部1を有し、その出力側には、行バッフ
ァ2が接続されている。行バッファ2は、例えば幅20
48x高さ128ビツトの大きさを有し、1行分の文字
画像のディジタル信号を格納する構成になっており、そ
の出力側には、文字切出部3を介してバタンレジスタ4
が接続されている。This character recognition device has a photoelectric conversion unit 1 that converts an optical signal IN of a character image on a medium such as a form into a quantized electric signal (digital signal), and a line buffer 2 is provided on the output side of the photoelectric conversion unit 1. It is connected. Row buffer 2 has a width of 20, for example.
It has a size of 48 bits x height of 128 bits, and is configured to store the digital signal of one line of character image, and the output side is connected to a button register 4 via a character cutting section 3.
is connected.
文字切出部3は、メモリを有し、行バッファ2の出力か
ら1文字分のディジタル信号(これを、「文字パタン」
という)をバタンレジスタ4に格納する機能を有してい
る。バタンレジスタ4は、例えば64X64ビツトの記
憶容量を有し、その出力側には、文字枠検出部5、線幅
測定部6、及びサブバタン抽出部7が接続されると共に
、文字傾斜検出部8及び周辺分布抽出部9が接続されて
いる。The character cutting unit 3 has a memory, and receives one character's worth of digital signals from the output of the line buffer 2 (this is called a "character pattern").
) is stored in the button register 4. The button register 4 has a storage capacity of, for example, 64 x 64 bits, and is connected to its output side with a character frame detection section 5, a line width measurement section 6, and a sub-button extraction section 7, as well as a character slant detection section 8 and A peripheral distribution extraction section 9 is connected.
文字枠検出部5は、バタンレジスタ4内の文字パタンを
走査して外接枠、つまり文字枠を検出し、その検出結果
を文字傾斜検出部8及び周辺分布抽出部9等に与える機
能を有している。線幅測定部6は、バタンレジスタ4の
出力に対する線幅を測定し、その測定結果をサブバタン
抽出部7に与える機能を有している。サブバタン抽出部
7は、バタンレジスタ4を複数方向に走査して垂直、水
平、右斜め、左斜めサブバタンを抽出するもので、垂直
サブバタン抽出部7a、水平サブバタン抽出部7b、右
斜めサブバタン抽出部7c、及び左斜めサブバタン抽出
部7dより構成されている。各抽出部7a〜7dは、そ
れぞれバタン格納用のメモリを有している。The character frame detection unit 5 has a function of scanning the character pattern in the button register 4 to detect a circumscribed frame, that is, a character frame, and providing the detection result to the character slope detection unit 8, the peripheral distribution extraction unit 9, etc. ing. The line width measuring section 6 has a function of measuring the line width of the output of the button register 4 and providing the measurement result to the sub-button extracting section 7. The sub-battle extractor 7 scans the button register 4 in a plurality of directions to extract vertical, horizontal, right diagonal, and left diagonal sub-battens, and includes a vertical sub-pattern extractor 7a, a horizontal sub-pattern extractor 7b, and a right diagonal sub-battle extractor 7c. , and a left diagonal sub-button extraction section 7d. Each of the extraction units 7a to 7d has a memory for storing a button.
文字傾斜検出部8は、バタンレジスタ4に格納された文
字パタンについて傾斜度を抽出する機能を有している。The character slant detection section 8 has a function of extracting the slant of the character pattern stored in the button register 4.
周辺分布抽出部9は、文字傾斜検出部8から出力された
傾斜度を用いてバタンレジスタ4を走査し、周辺分布を
抽出する機能を有している。この周辺分布抽出部9の出
力側には、分割点検出部10が接続され、その分割点検
出部10、文字枠検出部5、サブバタン抽出部7及び文
字傾斜検出部8の出力側には、特徴マトリクス抽出部1
1が接続され、さらにその出力側に識別部12が接続さ
れている。The peripheral distribution extraction section 9 has a function of scanning the slam register 4 using the slope output from the character slope detection section 8 and extracting the peripheral distribution. A dividing point detecting section 10 is connected to the output side of the peripheral distribution extracting section 9, and the output sides of the dividing point detecting section 10, character frame detecting section 5, sub-butter extracting section 7, and character slope detecting section 8 are as follows. Feature matrix extraction unit 1
1 is connected, and an identification unit 12 is further connected to its output side.
分割点検出部10は、周辺分布抽出部9で抽出された周
辺分布を用いて、外接枠内を複数の部分領域に分割する
ための分割点座標を検出する機能を有している。特徴マ
トリクス抽出部11は、サブバタン抽出部7から出力さ
れる垂直、水平、右斜め、及び左斜めサブパタンの各バ
タンから、特徴量を抽出して特徴マトリクスを作成し、
それを識別部12へ与える機能を有している。識別部1
2は、標準文字の特徴マトリクス(標準文字マスク)G
(k)と、この特徴マトリクスG(k)を有する標準文
字の文字名とを、格納する辞書メモリを有している。そ
して、特徴マトリクス抽出部11で抽出された特徴マト
リクスF(k)と、辞書メモリの特徴マトリクスG (
k)とを、照合することにより、該特徴マトリクスF
(k)を得た外接枠内領域の文字図形の認識を行い、文
字名○LJTを出力する機能を有している。The division point detection unit 10 has a function of detecting division point coordinates for dividing the inside of the circumscribing frame into a plurality of partial regions using the peripheral distribution extracted by the peripheral distribution extraction unit 9. The feature matrix extraction unit 11 extracts feature amounts from each of the vertical, horizontal, right diagonal, and left diagonal sub-patterns output from the sub-battle extraction unit 7 to create a feature matrix,
It has a function of providing it to the identification section 12. Identification part 1
2 is the standard character feature matrix (standard character mask) G
(k) and the character names of standard characters having this feature matrix G(k). Then, the feature matrix F(k) extracted by the feature matrix extraction unit 11 and the feature matrix G (
k), the feature matrix F
It has a function of recognizing the character/figure in the circumscribed frame area obtained in (k) and outputting the character name ○LJT.
第3図は、第1図の文字傾斜検出部8における一構成例
を示す機能ブロック図である。FIG. 3 is a functional block diagram showing an example of the configuration of the character slant detection section 8 of FIG. 1. As shown in FIG.
この文字傾斜検出部8は、バタンレジスタ4がら入力さ
れる画像データMの画素にX座標を付与するためのX座
標発生手段21と、画像データMの画素にY座標を付与
するためのY座標発生手段22とを備え、それらの出力
側には座標検出手段30.40が接続されている。座標
検出手段3040は、X、Y座標と少なくとも2組の特
定のα値及びデータ値とを用いて被抽出パタンの画素に
関する最大及び最小の計算値αX+βyを検出し。This character inclination detection section 8 includes an X coordinate generating means 21 for assigning an X coordinate to a pixel of image data M input from the button register 4, and a Y coordinate generating means 21 for assigning a Y coordinate to a pixel of image data M. generating means 22, and coordinate detecting means 30, 40 are connected to their output sides. The coordinate detection means 3040 detects the maximum and minimum calculated values αX+βy regarding the pixels of the extracted pattern using the X, Y coordinates and at least two sets of specific α values and data values.
その最大最小計算値を与える被抽出パタンの画素のX2
Y座標をそれぞれ特徴点座標として出力するものであり
、その出、力1則には、文字パタンの傾斜度を特徴点座
標に基づき算出する傾斜度!出手段ヲOが接続されてい
る。X2 of the pixel of the extracted pattern that gives the maximum and minimum calculated values
It outputs each Y coordinate as a feature point coordinate, and the first rule is the inclination that calculates the inclination of a character pattern based on the feature point coordinates! Output means WOO is connected.
座標検出手段30は、計算値αχ+βyを算出するX十
Y計算手段31と、最大計算値を検出するための最大値
検出手段32と、最大計算値を与える画素のX、Y座標
を保存するための最大値座標保存手段33と、最小計算
値を検出するための最小値検出手段34と、最小計算値
を与える画素のX、Y座標を保存するための最小値座標
保存手段35とで、構成されている。同様に、座標検出
手段40は、x −y計算手段41、最大値検出手段4
2、最大値座標保存手段43、最小値検出手段44、及
び最小値座標保存手段45より構成されている。The coordinate detecting means 30 includes an X0Y calculating means 31 for calculating the calculated value αχ+βy, a maximum value detecting means 32 for detecting the maximum calculated value, and a means for storing the X and Y coordinates of the pixel giving the maximum calculated value. A maximum value coordinate storage means 33, a minimum value detection means 34 for detecting the minimum calculated value, and a minimum value coordinate storage means 35 for storing the X and Y coordinates of the pixel giving the minimum calculated value. has been done. Similarly, the coordinate detection means 40 includes an x-y calculation means 41, a maximum value detection means 4
2, maximum value coordinate storage means 43, minimum value detection means 44, and minimum value coordinate storage means 45.
この文字傾斜検出部8では、特徴点座標検出のために、
例えばα=β=1及びα==−1、β=−1の2組のα
値及びβ値を用いるので、2つの座標検出手段30.4
0を備えている。一方の座標検出手段30では計算値X
+Yに関する最大及び最小計算値を、他方の座標検出手
段40では計X値X−Yに関する最大及び最小計算値を
、それぞれ与える画素の座標を検出する機能を有してい
る。In this character inclination detection section 8, in order to detect feature point coordinates,
For example, two sets of α: α=β=1 and α==−1, β=−1
Since the value and β value are used, two coordinate detection means 30.4
0. In one coordinate detection means 30, the calculated value
The other coordinate detecting means 40 has a function of detecting the coordinates of the pixel that provides the maximum and minimum calculated values for +Y, and the other coordinate detection means 40 provides the maximum and minimum calculated values for the total X value X-Y.
例えば、X+Y計算手段31は加算回路で、X−Y計算
手段41は減算回路で、検出手段32゜34.42.4
4はそれぞれ比較器及びレジスタで、座標保存手段33
,35,43.45はそれぞれレジスタ等で構成されて
いる。また、X座標発生手段21及びY座標発生手段2
2は、座標検出手段30.40に対して共通に用いるよ
うに構成されており、そのため座標検出手段30.40
はX座標発生手段21及びY座標発生手段22かち出力
されるX、)′座標をそれぞれ入力して特徴点座標の検
出を行う機能を有している。For example, the X+Y calculation means 31 is an addition circuit, the X-Y calculation means 41 is a subtraction circuit, and the detection means 32° 34.42.4
4 are a comparator and a register, respectively, and coordinate storage means 33
, 35, 43, and 45 are each composed of registers and the like. In addition, the X coordinate generating means 21 and the Y coordinate generating means 2
2 is configured to be used in common with the coordinate detection means 30.40, and therefore the coordinate detection means 30.40
has a function of detecting feature point coordinates by inputting the X, )' coordinates output from the X coordinate generating means 21 and the Y coordinate generating means 22, respectively.
次に、↓゛1上のようtこ襦成さり、る文字認識装置を
用いた文字認識方法について、各機能ブロックの処理(
I)〜(■)について説明する。Next, we will explain the processing of each functional block (
I) to (■) will be explained.
第4図は、印刷文字の斜体字の例を示す図である。本実
施例では、この第4図に示すように、印刷文字における
斜体字のような、文字の4個の特徴点を結んで得られる
四辺形の右辺及び左辺が傾斜するような文字を含む文字
列を認識する場合について、以下説明する。FIG. 4 is a diagram showing an example of printed characters in italics. In this embodiment, as shown in FIG. 4, a character including a character in which the right and left sides of a quadrilateral obtained by connecting four feature points of a character are inclined, such as an italic character in a printed character. The case of recognizing columns will be explained below.
(I> 文字パタン生成処理
帳票上に記入された文字画像の光信号INが光電変換部
1に入力されると、光電変換部1では、光信号INを2
値のデジタル信号、つまり文字線部を“1゛、背景部を
′O′に変換する。光電変換部1で変換された1行分の
文字画像のデジタル信号は、行バッファ2に格納される
。(I> When the optical signal IN of the character image written on the character pattern generation processing form is input to the photoelectric conversion unit 1, the optical signal IN is input to the photoelectric conversion unit 1.
The digital signal of the value, that is, the character line part is converted to "1" and the background part is converted to 'O'.The digital signal of the character image for one line converted by the photoelectric conversion unit 1 is stored in the line buffer 2. .
文字切出部3では、行バッファ2に格納さhを文字画像
のデジタル信号から、1文字分のデジタル信号(文字パ
タン)を読出し、パタンレジスタ4に格納する。本実施
例では、帳票フォーマットが予め指定されており2文字
切出部3のメモリLこ、行バツフア2内の文字位置を示
すアドレスが格納されている そのため、文字切出し動
作は、該アドレスで指定された行バッファ2の内容を読
み出すことにより実行される。The character cutting section 3 reads out a digital signal (character pattern) for one character from the digital signal of the character image stored in the line buffer 2, and stores it in the pattern register 4. In this embodiment, the form format is specified in advance, and the address indicating the character position in the line buffer 2 is stored in the memory L of the two-character extraction unit 3.Therefore, the character extraction operation is specified using the address. This is executed by reading out the contents of the row buffer 2.
(ff) 文字枠検出・線幅測定処理文字枠検出部う
では、バタンレジスタ4のパタンを走査してそのパタン
の左端座標X、il、右端、亭標Xr、上端座標Yt及
び下端座標ybを検出する。外接枠、つまり文字枠は(
、XJ)、Yt)、(XJII 、 Yb)、(Xr、
Yt)、(Xr、Yb)の4点を結ぶ矩形枠となる9
また、文字粋検出論は、特徴量の正規化を行うために、
必要な文字枠の大きさを算出する。即ち、バタンレジス
タ4のX軸に対し、平行な方向(水平方向)の文字枠の
大きさをWPhとしてWPh=Xr−XR÷1を、垂直
な方向(垂直方向)の文字枠の大きさをWPvとしてW
P v = Y t −Yb+1を、それぞh算出す
る。さらに、右斜め及び左斜め45′方向の文字枠の大
きさをWPr及びWPNとして
WRh+WPv
Z
を算出する。(ff) Character frame detection/line width measurement processing The character frame detection unit scans the pattern of the button register 4 and obtains the left end coordinates X, il, right end, mark Xr, top end coordinate Yt, and bottom end coordinate yb of the pattern. To detect. The circumscribing frame, or character frame, is (
, XJ), Yt), (XJII, Yb), (Xr,
A rectangular frame connects the four points Yt), (Xr, Yb).
Calculate the size of the required character frame. That is, the size of the character frame in the parallel direction (horizontal direction) to the X-axis of the button register 4 is WPh = Xr - XR ÷ 1, and the size of the character frame in the perpendicular direction (vertical direction) is WPh. W as WPv
P v = Y t - Yb+1 is calculated for h, respectively. Further, WRh+WPv Z is calculated by setting the size of the character frame in the diagonal right direction and the diagonal left direction 45' as WPr and WPN.
一方、線幅測定部6では、バタンレジスタ4からのディ
ジタル信号を入力し、例えば2×2の窓の全ての点が黒
ビットとなる状態の個数Qと、全黒ビットの個数Aとを
計数し、従来周知の(1)式に従って線幅WLを算出す
る。On the other hand, the line width measurement unit 6 inputs the digital signal from the button register 4 and counts, for example, the number Q of states in which all points in a 2×2 window are black bits and the number A of all black bits. Then, the line width WL is calculated according to the conventionally known equation (1).
WL=A/ (A−Q) ・・・・・・(
1)(III) サブバタン抽出処理
サブバタン抽出部7では、垂直サブバタン抽出部7a、
水平サブバタン抽出部7b、右斜めサブバタン抽出部7
C及び左斜めサブバタン抽出部7dにより、それぞれバ
タンレジスタ4上に設定しなX軸方向に垂直な方向く垂
直方向)及び平行な方向(水平方向)と、X軸から反時
計方向45゜の方向(右斜め45°方向)及び時計方向
45゜の方向く左斜め45°方向)とを、主走査方向と
してバタンレジスタ4を走査し、各主走査方向に対応す
る垂直、水平、右斜め及び左斜めサブバタンを抽出する
。WL=A/ (A-Q) ・・・・・・(
1) (III) Sub-battle extraction process In the sub-battle extraction unit 7, the vertical sub-battle extraction unit 7a,
Horizontal sub-pattern extraction section 7b, right diagonal sub-pattern extraction section 7
C and the left diagonal sub-butter extraction unit 7d, respectively, are set on the button register 4 in a direction perpendicular to the X-axis direction (vertical direction), a direction parallel to the X-axis direction (horizontal direction), and a direction 45 degrees counterclockwise from the X-axis. (45° diagonal right direction) and 45° clockwise diagonal direction (45° diagonal left direction) are the main scanning directions, and the button register 4 is scanned, and the vertical, horizontal, right diagonal, and left Extract diagonal sub-battens.
即ち、垂直サブバタン抽出部7aでは、垂直方向を主走
査方向として環パタンを全面走査し、垂直方向の走査線
上で連続する黒ビット(黒ラン)を検出する。そして、
検出した黒ランのなかから次式(2)を満足する長さp
の黒ランを抽出する。That is, the vertical sub-pattern extraction unit 7a scans the entire ring pattern with the vertical direction as the main scanning direction, and detects continuous black bits (black runs) on the vertical scanning line. and,
The length p that satisfies the following formula (2) from among the detected black runs
Extract the black orchid.
1≧N、WL
・・・・・・(2)
但し、p;主走査方向における黒ラ
ンの長さ
N;各サブパタンに対する任
意定数(例えば、2)
次に、垂直サブバタン抽出部7aは、(2)式を満足す
る黒ランを一サブパタンを構成する黒ランとみなして図
示しない垂直サブバタンメモリに格納する。(2)式を
満足しない黒ランは白ビットとみなす。1≧N, WL (2) However, p: length of the black run in the main scanning direction N: an arbitrary constant for each sub-pattern (for example, 2) Next, the vertical sub-pattern extraction unit 7a extracts ( 2) A black run that satisfies the formula is regarded as a black run constituting one sub-pattern and is stored in a vertical sub-pattern memory (not shown). Black runs that do not satisfy equation (2) are regarded as white bits.
同様に、水平、右斜め及び左斜めサブバタン抽出部7b
、7c、7dは、水平、右斜め及び左斜め方向を主走査
方向として環パタンを走査し、それぞれの主走査方向の
走査線上の黒ランのなかから、(2〉式を満足する黒ラ
ンを抽出し、抽出した黒ランを、サブパタンを構成する
黒ランとみなして図示しない水平、右斜め及び左斜めサ
ブバタンメモリに格納する。Similarly, the horizontal, right diagonal, and left diagonal sub-button extraction parts 7b
, 7c, and 7d scan the ring pattern with the horizontal, diagonal right, and diagonal left directions as the main scanning directions, and select black runs that satisfy equation (2>) from among the black runs on the scanning lines in the respective main scanning directions. The extracted black runs are stored in horizontal, right diagonal, and left diagonal sub-pattern memories (not shown) as black runs constituting a sub-pattern.
(IV) 文字傾斜検出処理
文字傾斜検出部8は、バタンレジスタ4に格納された文
字バタンについて傾斜度を抽出する。この抽出方法を、
第3図、第5図(a>、(b)及び第6図(a>、(b
)を参照しつつ説明する。(IV) Character slant detection processing The character slant detection section 8 extracts the slant of the character slams stored in the button register 4. This extraction method
Figure 3, Figure 5 (a>, (b) and Figure 6 (a>, (b)
).
第5図(a>、(b)は傾斜度検出方法を説明するため
の特徴点の検出例を示す図である。X−Y座標系で表現
される平面には、被抽出バタンM2である傾きのない文
字(第5図(a))と斜体字(第5図(b))とが示さ
れている。BL、BR,TL、TRは特徴点である。第
6図(a)。FIGS. 5(a) and 5(b) are diagrams showing an example of detecting feature points to explain the slope detection method.On the plane expressed in the X-Y coordinate system, there is a button M2 to be extracted. Characters with no slope (FIG. 5(a)) and italic characters (FIG. 5(b)) are shown. BL, BR, TL, and TR are feature points. FIG. 6(a).
(b)は、文字傾斜検出方法を説明するもので、同図(
a)は最大値処理のフローチャート、及び同図(b)は
最小値処理のフローチャートである。(b) explains the character slant detection method;
FIG. 11A is a flowchart of maximum value processing, and FIG. 10B is a flowchart of minimum value processing.
この文字傾斜検出処理を、(A>特徴点TL、BR座標
の検出処理と、(B)特徴点BL、TR座標の検出処理
と、(C)傾斜度算出処理とに分けて以下説明する。This character inclination detection process will be explained below by dividing it into (A>detection process of feature point TL and BR coordinates, (B) detection process of feature point BL and TR coordinates, and (C) inclination degree calculation process.
(A>特徴点TL、BR座標の検出処理この処理では、
第3図の座標検出手段30等により、次のような(1)
〜(5)の処理ステップで実行される。(A> Detection process of feature points TL and BR coordinates In this process,
The following (1) is detected by the coordinate detection means 30 shown in FIG.
This is executed in the processing steps of ~(5).
(1) ステップ81〜S3
先ず、バタンレジスタ4の走査を開始し、そのバタンレ
ジスタ4より出力された画像データMを、文字傾斜検出
部8に入力する(ステップSl)。(1) Steps 81 to S3 First, scanning of the slam register 4 is started, and the image data M output from the slam register 4 is input to the character slant detection section 8 (step Sl).
この画像データMは、画素毎に座標検出手段30内の最
大値検出手段32及び最小値検出手段34に入力される
。This image data M is input to the maximum value detection means 32 and the minimum value detection means 34 in the coordinate detection means 30 for each pixel.
これと共に、X座標発生手段21及びY座標発生手段2
2は、画像データMの出力と同期させて、この画像デー
タMの各画素毎に対応付けたχ、Y座標を発生する。そ
の結果、これら発生手段21゜22により、画像データ
MにX、Y座標の付与が行われる。そして出力されたX
、Y座標は、座標検出手段30内のX+Y計算手段31
、最大値座標保存手段33、及び最小値座標保存手段3
うに入力される(ステップS2)。Along with this, the X coordinate generating means 21 and the Y coordinate generating means 2
2 generates χ and Y coordinates associated with each pixel of the image data M in synchronization with the output of the image data M. As a result, these generating means 21 and 22 assign X and Y coordinates to the image data M. and the output X
, Y coordinate is determined by the X+Y calculation means 31 in the coordinate detection means 30.
, maximum value coordinate storage means 33, and minimum value coordinate storage means 3
(Step S2).
X+Y計算手段31はX、Y座標を入力すると、これら
χ、Y座標から計算値X+Yを算出し、算出した計算値
を最大値検出手段32及び最小値検出手段34へ出力す
る(ステップS3)。ステップ82〜S3によって、最
大値検出手段32は画像データM及び計算値を、最小値
検出手段34は画像データM及び計算値を、最大値座標
保存手段33はX、Y座標を、最小値座標保存手段35
はX、Y座標を、それぞれ1画素毎に入力する。そして
、座標検出手段30は、t★述のステップS4、Sea
、S5b或いはS7の判断を1画素毎L−″繰り返し実
行し、その判断結果りこ応じた処理を行う。When the X+Y calculation means 31 receives the X and Y coordinates, it calculates a calculated value X+Y from these χ and Y coordinates, and outputs the calculated value to the maximum value detection means 32 and the minimum value detection means 34 (step S3). Through steps 82 to S3, the maximum value detection means 32 receives the image data M and the calculated value, the minimum value detection means 34 receives the image data M and the calculated values, the maximum value coordinate storage means 33 stores the X, Y coordinates, and the minimum value coordinate. Storage means 35
Inputs the X and Y coordinates for each pixel. Then, the coordinate detection means 30 performs step S4 described in t★, Sea
, S5b or S7 is repeatedly executed for each pixel L-'', and processing is performed according to the result of the judgment.
(2〉 ステップS4
最大値検出手段32及び最小値検出手段34は、入力さ
れた画像データMの画像が所定の画素値(例えば、′1
°)であるか否かを判断する。(2> Step S4 The maximum value detection means 32 and the minimum value detection means 34 detect that the image of the input image data M has a predetermined pixel value (for example, '1
°).
■ 所定の画素値を有さないとき
最大値検出手段32及び最小値検出手段34は、格納し
ている比較値を書換えず、これと共に最大値座標保存手
段33及び最小値座標保存手段33も、格納されている
X、Y座標を書換えない。検出手段32.34は、ステ
ップS4の次に、ステップS7の判断を行う。(2) When the pixel does not have a predetermined pixel value, the maximum value detection means 32 and the minimum value detection means 34 do not rewrite the stored comparison values, and at the same time, the maximum value coordinate storage means 33 and the minimum value coordinate storage means 33 also Do not rewrite the stored X and Y coordinates. The detection means 32, 34 performs the determination in step S7 after step S4.
■ 所定の画素値を有するとき
最大値検出手段32はステップS4の次に比較値及び計
算値の比較(ステップS”;a)を、最小値検出手段3
4はステップS4の次に比較値及び計算値の比較(ステ
ップ55b)を、それぞれ行つ。■ When the pixel value is a predetermined value, the maximum value detection means 32 compares the comparison value and the calculated value (step S''; a) after step S4, and the minimum value detection means 3
4, the comparison value and the calculated value are compared (step 55b) after step S4.
(3) ステップS5a
このステップでは、計算値が比較値より大きいか否かを
判断し、その判断結果に応じた次のような処理を実行す
る。(3) Step S5a In this step, it is determined whether the calculated value is greater than the comparison value, and the following processing is executed depending on the determination result.
■ 計算値〉比較値のとき
最大値検出手段32は、先に格納されている比較値に代
えて、比較値よりも大きい計算値を新たな比較値として
格納しく比較値の書換え)、これと共にセットパルスを
最大値座標保存手段33へ出力する。セットパルスを入
力した最大値座標保存手段33は、格納されているX、
Y座標に代えて、比較値よりも大きな計算値を与える画
素のX、Y座標を新たに格納する(「X、Y座標の書換
え」ステップS6)。■ When the calculated value>comparison value, the maximum value detection means 32 stores a calculated value larger than the comparison value as a new comparison value instead of the previously stored comparison value (rewriting the comparison value), and at the same time The set pulse is output to the maximum value coordinate storage means 33. The maximum value coordinate storage means 33 into which the set pulse is input stores the stored X,
Instead of the Y coordinate, the X and Y coordinates of the pixel that gives a calculated value larger than the comparison value are newly stored ("Rewriting X and Y coordinates" step S6).
■ 計算値≦比較値のとき
最大値検出手段32は、先に格納されている比較値を書
換えずにそのまま格納すると共に、最大値座標保存手段
33も、格納されているX、Y座標を書換えない。■ When the calculated value≦comparison value, the maximum value detection means 32 stores the previously stored comparison value without rewriting it, and the maximum value coordinate storage means 33 also rewrites the stored X and Y coordinates. do not have.
最大値検出手段32は、前記■及び■のいずれの場合も
、ステップS5aの次に、ステップS7の判断を行う。The maximum value detecting means 32 performs the determination in step S7 after step S5a in both cases (1) and (2).
なお、最大値検出手段32に格納される比較値の初期値
としては、例えば計算値αとして取り得る値よりも小さ
な値を用いれば良い。例えば、α=β−1で、画像デー
タMをp行用列の画素に分割した(従って、○≦X≦m
−1、及び0≦Y≦j−1となる)場合には、−1を比
較値の初期値とすることができる。或は比較値の初期値
として、最大値検出手段32に一番最初に入力された計
算値αχ十βyを用いるようにしても良い。Note that as the initial value of the comparison value stored in the maximum value detection means 32, a value smaller than the value that can be taken as the calculated value α may be used, for example. For example, the image data M is divided into p rows and columns of pixels with α=β−1 (therefore, ○≦X≦m
−1 and 0≦Y≦j−1), −1 can be set as the initial value of the comparison value. Alternatively, the calculated value αχ1βy inputted first to the maximum value detection means 32 may be used as the initial value of the comparison value.
また、最大値検出手段32は、比較値及びX、Y座標の
書換えを、計算値αχ十βyが比較値よりも大きいとき
、及び計算値が比較値と等しいときに行うようにし、こ
れと共に計算値が比較値よりも小さいとき、比較値及び
X、Y座標の書換えを行わないようにしても良い。さら
に、最大値座標保存手段33のX、Y座標としては、任
意好適な数値を用いて良い。Further, the maximum value detection means 32 rewrites the comparison value and the X, Y coordinates when the calculated value αχ + βy is larger than the comparison value and when the calculated value is equal to the comparison value, and at the same time When the value is smaller than the comparison value, the comparison value and the X, Y coordinates may not be rewritten. Furthermore, any suitable numerical values may be used as the X and Y coordinates of the maximum value coordinate storage means 33.
(4) ステップS5b
第6図(b)のステップS5bでは、計算値が比較値よ
り小さいか否かの判断を行い、その判断結果に基づき次
のような処理を実行する。(4) Step S5b In step S5b of FIG. 6(b), it is determined whether the calculated value is smaller than the comparison value, and the following processing is executed based on the determination result.
■ 計算値〈比較値のとき
最小値検出手段34は、先に格納されている比較値に代
えて、比較値よりも小さい計算値を比較値として新たに
格納する(比較値の書換え)と共に、最小値座標保存手
段35ヘセツトパルスを出力する。最小値座標保存手段
35は、セットパルスを入力すると、格納されているX
、Y座標を、比較値よりも小さな計算値を与える画素の
X、Y座標に書換える( rX、Y座標の書換えJステ
ップS6)。■ When the calculated value is a comparison value, the minimum value detection means 34 stores a new calculated value smaller than the comparison value as a comparison value instead of the previously stored comparison value (rewrites the comparison value), and The minimum value coordinate storage means 35 outputs a set pulse. When the set pulse is input, the minimum value coordinate storage means 35 stores the stored
, Y coordinates are rewritten to the X, Y coordinates of the pixel that gives a calculated value smaller than the comparison value (rX, Y coordinate rewriting J step S6).
■ 計算値≧比較値のとき
最小値検出手段34は、先に格納されている比較値を書
換えずにそのまま格納すると共に、最小値座標保存手段
35も、格納されているX、Y座標を書換えない。■ When the calculated value≧comparison value, the minimum value detection means 34 stores the previously stored comparison value without rewriting it, and the minimum value coordinate storage means 35 also rewrites the stored X and Y coordinates. do not have.
最小値検出手段34は、前記■及び■のいずれの場合に
も、ステップSobの次に、ステップS7の判断を行う
。The minimum value detection means 34 performs the determination in step S7 after step Sob in both cases (1) and (2) above.
なお、最小値検出手段34に格納される比較値の初期値
としては、例えば計算値αχ+βyとして取り得る値よ
りも大きな値を用いれば良い。例えば、α=β=1で、
画像データMを1行m列の画素に分割した(従って、0
≦X≦m−1、及び0≦Y≦J−1となる)場合には、
m+n−1を比較値の初期値とすることができる。或は
比較値の初期値として最小値検出手段34に一番最初に
入力された計算値αχ十βyを用いるようにしても良い
。Note that as the initial value of the comparison value stored in the minimum value detection means 34, a value larger than the value that can be taken as the calculated value αχ+βy may be used, for example. For example, α=β=1,
Image data M is divided into 1 row and m columns of pixels (therefore, 0
≦X≦m-1 and 0≦Y≦J-1), then
m+n-1 can be set as the initial value of the comparison value. Alternatively, the calculated value αχ+βy inputted first to the minimum value detection means 34 may be used as the initial value of the comparison value.
また、最小値検出手段34は、計算値が比較値よりも小
さいとき、及び計算値が比較値と等しいとき、比較値及
びχ、Y座標の書換えを行い、これと共に計算値が比較
値よりも大きいとき、比較値及びχ、Y座標の書換えを
行わないようにしても良い。さらに、最小値座標保存手
段35のX、Y座標としては、任意好適な数値を用いて
良い。Further, the minimum value detection means 34 rewrites the comparison value and the χ and Y coordinates when the calculated value is smaller than the comparison value and when the calculated value is equal to the comparison value, and at the same time, the calculated value is smaller than the comparison value. When the value is large, the comparison value and the χ and Y coordinates may not be rewritten. Furthermore, any suitable numerical values may be used as the X and Y coordinates of the minimum value coordinate storage means 35.
(5) ステップS7
ステップS7では、画像データMの走査を終了したか否
かを判断し、その判断結果に応じて次のような処理を実
行する。(5) Step S7 In step S7, it is determined whether or not scanning of the image data M has been completed, and the following processing is executed depending on the determination result.
■ 画像データMの走査を終了したとき最大値検出手段
32及び最小値検出手段34は、画像データMの走査が
終了し、データMの全画素につき処理が終了すると、X
、Y座標の出力信号を、最大値座標保存手段33及び最
小値座標保存手段35へ出力する。すると、座標保存手
段33゜35は、格納しているX、Y座標を特徴点座標
として出力する。こ九と共に検出手段32.34は、比
較値の初期化を行う(ステップS8)。■ When the scanning of the image data M is finished, the maximum value detection means 32 and the minimum value detection means 34 detect the
, Y coordinates are outputted to the maximum value coordinate storage means 33 and the minimum value coordinate storage means 35. Then, the coordinate storage means 33 and 35 output the stored X and Y coordinates as feature point coordinates. Together with this, the detection means 32 and 34 initialize the comparison value (step S8).
全画素につき処理を終了した時点で、最大値座標保存手
段33及び最小値座標保存手段35に格納されているX
、Y座標が、最大及び最小計算値を与える画素のx、y
座標、すなわち特徴点座標となる。When processing is completed for all pixels, the X stored in the maximum value coordinate storage means 33 and the minimum value coordinate storage means 35
, Y coordinates of the pixel whose maximum and minimum calculated values are x, y
coordinates, that is, feature point coordinates.
座標検出手段30では、α=β=1としたので、全処理
終了時点で、例えば第5図に示す被抽出パタンM2の特
徴点BRの座標が、最大値座標保存手段33に格納され
ており、また特徴点TLの座標が、最小値座標保存手段
35に格納されている。In the coordinate detection means 30, α=β=1, so at the end of all processing, for example, the coordinates of the feature point BR of the extracted pattern M2 shown in FIG. 5 are stored in the maximum value coordinate storage means 33. , and the coordinates of the feature point TL are stored in the minimum value coordinate storage means 35.
■ 画像データMの走査が終了しないとき座標検出手段
30は、画像データMの走査が終了せず、従ってデータ
Mの全画素につき処理が終了していなければ、画像デー
タMの残りの画素につき、ステップ84.S5a、S5
b或はS7の判断を行い、その判断結果に応じた処理を
行う。■ When the scanning of the image data M is not completed If the scanning of the image data M is not completed and therefore the processing has not been completed for all pixels of the data M, the coordinate detection means 30 detects the remaining pixels of the image data M. Step 84. S5a, S5
b or S7 is made, and processing is performed according to the result of the judgment.
(B)特徴点BL、TR座標の検出処理この処理は、座
標検出手段40等で行われる処理である。即ち、座標検
出手段40は、上述した座標検出手段30の動作と並行
してその座標検出手段30とほぼ同様の処理を行う。(B) Detection processing of feature point BL and TR coordinates This processing is performed by the coordinate detection means 40 and the like. That is, the coordinate detection means 40 performs almost the same processing as the coordinate detection means 30 in parallel with the operation of the coordinate detection means 30 described above.
この座標検出手段40では、α=1及びβ=1としなの
で、全画素につき処理を終了した時点で、例えば、第5
図に示す被抽出パタンM2の特徴点TRの座標が、最大
値座標保存手段43に格納されており、また特徴点BL
の座標が、最小値座標保存手段45に格納されている。In this coordinate detection means 40, α=1 and β=1, so when processing is completed for all pixels, for example, the fifth
The coordinates of the feature point TR of the extracted pattern M2 shown in the figure are stored in the maximum value coordinate storage means 43, and the feature point BL
The coordinates of are stored in the minimum value coordinate storage means 45.
(C)傾斜度算出処理 前記処理(A)、(B)で、特徴点TR,TL。(C) Slope calculation process In the processes (A) and (B), the feature points TR and TL.
BR,BLの4点の座標(TRx、TRy)。Coordinates of the four points BR and BL (TRx, TRy).
(TLx、TLy)、(BRx、BRy)、(BLx、
BLy)が検出されると、傾斜度算出手段50では、該
4点の座標より、入力文字パタンの傾斜角度に相当する
値(傾斜度)THを次式に従って計算する。(TLx, TLy), (BRx, BRy), (BLx,
When BLy) is detected, the inclination calculation means 50 calculates a value (inclination) TH corresponding to the inclination angle of the input character pattern from the coordinates of the four points according to the following equation.
即ち、傾斜度算出手段50は、(3)式を用いて、4個
の特徴点を結んで得られる四辺形の右辺の上端と下端の
X座標値の差と、左辺の上端と下端のX座標値の差の平
均を1文字高さの平均で割った値を傾斜度TH(但し、
TH;実数)として出力し、周辺分布抽出部9及び特徴
マトリクス抽出部11へ与える。That is, the inclination calculating means 50 uses equation (3) to calculate the difference between the X coordinate values of the upper and lower ends of the right side of the quadrilateral obtained by connecting the four feature points, and the X coordinate values of the upper and lower ends of the left side. The value obtained by dividing the average difference in coordinate values by the average height of one character is the slope TH (however,
TH; real number) and provided to the marginal distribution extraction section 9 and the feature matrix extraction section 11.
(V) 周辺分布抽出処理
第7図(a>、(b)は周辺分布抽出方法の説明図であ
り、同図(a>は入力文字パタンの例(数字の’o’>
、同図(b)は該パタンから抽出された周辺分布である
。(V) Marginal distribution extraction process Figure 7 (a>, (b) is an explanatory diagram of the marginal distribution extraction method.
, Figure (b) shows the marginal distribution extracted from the pattern.
周辺分布抽出部9は、文字傾斜検出部8で得られた傾斜
度TH(=実数)に従って、第7図(a)に示す文字パ
タンの走査経路を決定する。第7図(a>では、TH=
5/20である。垂直走査は、上辺から走査を開始し、
開始アドレス(Xa、YT)から開始するときの走査経
路の座標(xl。The peripheral distribution extraction unit 9 determines the scanning path of the character pattern shown in FIG. 7(a) according to the slope TH (=real number) obtained by the character slope detection unit 8. Figure 7 (a>, TH=
It is 5/20. Vertical scanning starts scanning from the top edge,
Coordinates (xl.) of the scanning path when starting from the start address (Xa, YT).
y・)は次式(4)で表わすことができる。y·) can be expressed by the following equation (4).
xl=Xa
y1=YT
x ==Xa+T)lx (y、−YT)’5’i=’
li 1+1
・・・・・・(4)
但し、THX (yi−YT)の結果
は、小数点以下を切捨てる。xl=Xa y1=YT x ==Xa+T)lx (y, -YT)'5'i='
li 1+1 (4) However, the result of THX (yi-YT) is rounded down to the decimal point.
座標値は全て整数である。All coordinate values are integers.
走査経路中の黒ビット数を計数し、Xaにおける周辺分
布の値とする。XaliXL≦Xa≦XRの範囲で変化
させる。即ち、走査開始点を(XL。The number of black bits in the scanning path is counted and taken as the value of the marginal distribution at Xa. It is varied within the range of XaliXL≦Xa≦XR. That is, the scanning start point is set to (XL.
YT> 、(XL+1.YT)、・・・・・・、(XR
,YT)に設定し、各走査開始点について(4)式に従
う走査経路上の黒ビット数を計数し、周辺分布を抽出す
る。該抽出された周辺分布を5X(x)(但し、x=X
L、・・・・・・、XR)で表わす。YT>, (XL+1.YT),..., (XR
, YT), the number of black bits on the scanning path according to equation (4) is counted for each scanning start point, and the peripheral distribution is extracted. The extracted marginal distribution is 5X (x) (where x=X
L, ..., XR).
該な、水平方向に走査し、Y117方向の周辺分布5Y
(y)(但し、y=YT、・・・・・・、YB)を抽出
する。Applicable, scan in the horizontal direction and obtain peripheral distribution 5Y in the Y117 direction.
(y) (where y=YT, . . . , YB) is extracted.
本実施例では、水平方向の走査はX軸と平行な走査経路
で行う。即ち、パタンレジスタ4の座標(x、y)画素
における画素の値をP (x、y)としたとき、
で計算される。In this embodiment, horizontal scanning is performed along a scanning path parallel to the X-axis. That is, when the pixel value at the coordinate (x, y) pixel of the pattern register 4 is P (x, y), it is calculated as follows.
(Vl)分割点検出処理 分割点検出部10では、周辺分布SX (x> 。(Vl) Division point detection processing In the division point detection unit 10, the marginal distribution SX (x>).
SX(、y)を用いて、外接枠内領域をNXxNY個の
部分領域に分割するためのX軸上及びY軸上の分割点座
標を、各外接枠毎に決定する。但し、NXはX軸方向に
おける分割数、及びNYはYN方向における分割数であ
る。Using SX(,y), coordinates of division points on the X-axis and Y-axis for dividing the area within the circumscribing frame into NXxNY partial areas are determined for each circumscribing frame. However, NX is the number of divisions in the X-axis direction, and NY is the number of divisions in the YN direction.
分割数NX及びNYは、文字の複雑さに応じて任意好適
な値に設定するのが好ましい。例えば、漢字・カタカナ
等の画数の少ない文字を認識対象とする場合は、(2X
2)〜(3X3)程度の少ない数の部分領域に、外接枠
内領域を分割する。The numbers of divisions NX and NY are preferably set to arbitrary suitable values depending on the complexity of the characters. For example, when recognizing characters with a small number of strokes such as kanji and katakana, (2X
2) Divide the area within the circumscribing frame into a small number of partial areas of about 3x3.
漢字が認識対象となる場合には、(4X4)〜(8X8
)程度の部分領域に、外接枠内領域を分割することが多
い。しかし、本実施例では、認識対象の複雑さにかかわ
らず、外接枠内領域を、例えば常に(4X4>個に分割
するようにした。When kanji are to be recognized, (4X4) to (8X8
) The area within the circumscribing frame is often divided into partial areas of approximately However, in this embodiment, the area within the circumscribed frame is always divided into (4×4> pieces, for example) regardless of the complexity of the recognition target.
この分割点検出部10は、周辺分布抽出部9で作成した
周辺分布SX (x)、SY (y)の重心座標より、
分割点座標DX (m> 、DY (n)を求めるもの
である。これは、文字枠のX軸方向またはY軸方向の全
範囲、あるいはそれまでに求めた重心座標で分割された
範囲における1次モーメントの和を、その範囲の黒ビッ
ト和で除算することにより求まる。但し、m、nは座標
値の大きさの順に付した重心座標番号であり、m=1〜
NX−1(NX−1はX軸方向の重心の個数)、n=1
〜NY−1(NY−1はY軸方向の重心の個数)である
。This division point detection unit 10 calculates
The division point coordinates DX (m>, DY (n)) are determined. It is found by dividing the sum of the next moments by the sum of black bits in that range.However, m and n are the barycenter coordinate numbers assigned in order of the size of the coordinate values, and m = 1 to
NX-1 (NX-1 is the number of centers of gravity in the X-axis direction), n=1
~NY-1 (NY-1 is the number of centers of gravity in the Y-axis direction).
まず、文字枠のX軸方向の範囲χL〜XRを対象とし、
次式(5)に示すように、入力文字パターンの周辺分布
SX、(x>の1次モーメント和を、その範囲の黒ビッ
ト和で除算することにより、中央の重心座標番号の重心
座標DX(2>を求める。First, target the range χL to XR of the character frame in the X-axis direction,
As shown in the following equation (5), by dividing the sum of the first moments of the peripheral distribution SX, (x>) of the input character pattern by the sum of black bits in that range, the barycenter coordinate DX ( Find 2>.
但し、右辺の式は実数となるので、 小数点以下を切り上げDX (2)を整数にする。However, since the expression on the right side is a real number, Round up the decimal point DX Make (2) an integer.
次に、その重心座標DX(2>で分割された夫々の範囲
、XL〜DX (2>−1,DX (2)〜XRを対象
として2つの重心DX(1)、DX(3)を求める。Next, find the two centroids DX(1) and DX(3) for each range divided by the centroid coordinates DX(2>, XL to DX (2>-1, DX (2) to XR) .
DX(1)
・・・・・・(6)
DX(3)
以上のようにして重心座標DX(1)、DX(2>、D
X (3)を求め、当該座標をX軸上の分割点座標とし
て決定する。DX(1) ......(6) DX(3) As above, the center of gravity coordinates DX(1), DX(2>, D
Find X (3) and determine the coordinates as the dividing point coordinates on the X axis.
Y軸方向の重心座標も同様に、Y軸上の周辺分布5Y(
y)より、文字枠の範囲YT〜YBを対象として重心座
標DY(4)を検出する。次に、YT〜Y (2>−1
,Y (2)〜YBそれぞれを対象として、周辺分布5
Y(y>の重心座標Y(1)、Y (3)を検出する。Similarly, the coordinates of the center of gravity in the Y-axis direction are the peripheral distribution on the Y-axis 5Y (
y), the center of gravity coordinates DY(4) is detected for the range YT to YB of the character frame. Next, YT~Y (2>-1
, Y (2) ~YB, respectively, the marginal distribution 5
Detect the barycenter coordinates Y(1), Y(3) of Y(y>).
以上のようにして、重心座標DY(1)、DY(2>、
DY (3)を求め、該座標をY軸上の分割点座標とし
て決定する。As described above, the center of gravity coordinates DY(1), DY(2>,
DY (3) is determined and the coordinates are determined as the division point coordinates on the Y axis.
このX軸上及びY軸上の分割点座標は、特徴マトリクス
11へ与えられる。The coordinates of the division points on the X-axis and Y-axis are given to the feature matrix 11.
(VN) 特徴マトリクス抽出処理
文字枠検出部5が文字パタンの外接枠を規定する座標X
J 、Xr、Yt、Ybを検出し、さらに分割点検出部
10が文字パタンについて対象分割点座標を検出すると
、特徴マトリクス抽出部11では、垂直、水平、右斜め
、及び左斜めサブパタンの各パタンから特徴量を抽出し
、特徴マトリクスを作成する。(VN) Coordinates X where the character frame detection unit 5 defines the circumscribed frame of the character pattern
When J, Xr, Yt, and Yb are detected, and the dividing point detection section 10 further detects the target dividing point coordinates for the character pattern, the feature matrix extraction section 11 extracts each of the vertical, horizontal, right diagonal, and left diagonal sub-patterns. Extract features from and create a feature matrix.
即ち、特徴マトリクス抽出部11は、一つの外接枠内領
域を、対象分割点座標と座標Xj、Xr。That is, the feature matrix extraction unit 11 converts one circumscribed frame area into target division point coordinates and coordinates Xj, Xr.
Yt、YbとによってNXXNY個の部分領域に分割し
、各部分領域内のサブパタンの文字線1を表す特徴量を
抽出する。そして、一つの外接枠領域内の各サブパタン
から抽出しなNXXNYX4個の特徴量から成る特徴マ
トリクスを、当該外接枠内領域の特徴量マトリクスとし
て抽出する。It is divided into NXXNY partial regions by Yt and Yb, and the feature quantity representing the character line 1 of the subpattern in each partial region is extracted. Then, a feature matrix consisting of NXXNYX four feature quantities extracted from each sub-pattern within one circumscribed frame area is extracted as the feature quantity matrix of the circumscribed frame area.
まず、水平サブパタン(H3P)からの特徴量抽出につ
き説明する。First, feature extraction from the horizontal sub-pattern (H3P) will be explained.
特徴マトリクス抽出部11は、対象分割点座標と座標X
fl 、Xr、Yt、Ybとに基づき、外接枠内領域を
NXxNY個の部分領域に分割しく対象分割点座標及び
座標XJ 、Xr、Yt、Ybは分割点座標である)、
各部分領域毎に部分領域内の水平サブパタンH8Pの黒
ビット数BH(i。The feature matrix extraction unit 11 extracts target division point coordinates and coordinates
The area within the circumscribing frame is divided into NXxNY partial areas based on fl, Xr, Yt, and Yb. The coordinates of the target dividing point and the coordinates XJ, Xr, Yt, and Yb are the dividing point coordinates),
For each partial area, the number of black bits BH(i) of the horizontal sub-pattern H8P within the partial area.
j〉を計数する。Count j〉.
分割点座標から分割領域の決定は、次のように行う。X
軸上の分割点座標DX(n>は、文字パタンの外接枠上
辺の分割点を示している。この座標を起点として、次式
(8)で求められる座標系列の左側を分割境界Sとする
。The division area is determined from the division point coordinates as follows. X
The dividing point coordinates DX (n> on the axis) indicate the dividing point on the upper side of the circumscribing frame of the character pattern. Starting from this coordinate, the left side of the coordinate series obtained by the following equation (8) is the dividing boundary S. .
xl=DX(n>
yl=YT
x 、=DX (n>−THx (y = −YT)y
i=yi−1+1
・・・・・・(8)
この分割境界の例が、第7図(a>に示されている。xl=DX(n>yl=YT x ,=DX (n>-THx (y = -YT)y
i=yi-1+1 (8) An example of this dividing boundary is shown in FIG. 7 (a>).
水平方向の分割境界Sは、DY (m”)より、水平方
向に設定する。The horizontal division boundary S is set in the horizontal direction from DY (m'').
以上のように分割された分割領域毎に、水平サブパタン
H8Pの黒ビット数BH(i、、j)を計数する。この
BH(i、j>は、一つの外接枠内領域に関する第i行
第j列の部分領域の黒ビット数である。次に、(9)式
に従って第i行第j列の部分領域に関する特徴量FH(
i、j)を計算する。The number of black bits BH(i,,j) of the horizontal sub-pattern H8P is counted for each divided area divided as described above. This BH(i, j> is the number of black bits of the partial area in the i-th row and j-th column regarding one circumscribed frame area. Next, according to equation (9), Feature amount FH (
i, j).
但し、i=1.2.・・・・・・、NXj=1.2.・
・・・・・、NY
WL;線幅
wph、文字幅(=Xr−Xjl +1 )さらに、H
8Pの場合と同様にして、第i行第j列の部分領域のV
SP、H3P、LSPの黒ビット数BV(i、j>、B
R(i、j>、BL(i、j>を計数し、次式(10)
〜(12)に従って第i行第j列の部分領域に関するv
sp。However, i=1.2. ......, NXj=1.2.・
..., NY WL; line width wph, character width (=Xr-Xjl +1), and H
Similarly to the case of 8P, V of the partial area of the i-th row and j-th column is
The number of black bits BV (i, j>, B
Count R(i, j>, BL(i, j>) and use the following formula (10)
~ According to (12), v regarding the partial area in the i-th row and j-th column
sp.
H8P、LSPの特徴量FV(i、j>、FR(i、j
>、FL(i、j)を算出する。H8P, LSP feature quantity FV(i, j>, FR(i, j
>, calculate FL(i,j).
但し、
WPv;文字高さ(=Yb−Yt−i1)WP r =
WPN = (WP v +WP h > / 2以上
のようにして、外接枠内領域の各部分領域毎にVSP、
H3P、H8P、LSPの特徴量を抽出し、これらNX
XNYX4個の特徴量から成る特徴マトリクスF (k
)(k=1.2.・・・・・・NXxNYx4)を得る
。特徴マトリクス抽出部11は、特徴マトリクスF (
k)を各外接枠領域毎に抽出し、その抽出結果を識別部
12へ送る。However, WPv; character height (=Yb-Yt-i1)WPr=
WPN = (WP v + WP h > / 2 or more, VSP,
Extract the features of H3P, H8P, and LSP, and apply these NX
Feature matrix F (k
) (k=1.2...NXxNYx4) is obtained. The feature matrix extraction unit 11 extracts a feature matrix F (
k) is extracted for each circumscribed frame area, and the extraction result is sent to the identification unit 12.
(■) 識別処理
識別部12は、抽出された特徴マトリクスF(k)と、
内部に設けられた辞書メモリ内の特徴マトリクスG (
k)とを、照合することにより、該特徴マトリクスF
(k>を得た外接枠内領域の文字図形の認識を行う。こ
の認識では、次式(13)に従って特徴マトリクスF
(k>とG(、k)間の距ti[)を求め、距離りが最
小となる特徴マトリクスG (k)の標準文字の文字名
(例えば、JIS規格に定められた文字コード〉OUT
を認識結果として出力する。(■) The identification processing identification unit 12 uses the extracted feature matrix F(k),
Feature matrix G (
k), the feature matrix F
Characters and figures in the area within the circumscribed frame for which (k> is obtained) are recognized. In this recognition, the feature matrix F is calculated according to the following equation (13).
Find the distance ti[) between (k> and G(, k), and find the character name of the standard character of the feature matrix G (k) where the distance is the minimum (for example, the character code specified in the JIS standard) OUT
is output as the recognition result.
以上のように、本実施例では、次のような利点を有して
いる。As described above, this embodiment has the following advantages.
(a) 本実施例では、バタンレジスタ4内の文字バ
タンを含むX−Y座標系で表現される平面において、文
字パタンの黒画素に関するαχ+βyの最大値及び最小
値を与える座標を文字傾斜検出部8で検出し、さらにそ
の座標に基づき文字パタンの傾斜角を検出する。そして
、該傾斜角に従って周辺分布抽出部9で周辺分布を抽出
し、その周辺分布を用いて分割点検出部10で分割点を
検出する。その後、特徴マトリクス抽出部11で、該傾
斜角及び周辺分布に基づき分割境界を設定し、特徴マト
リクスを抽出している。そのため、傾斜を有する文字パ
タンについても、抽出される特徴が安定となる。従って
、文字傾斜の変形に対応した辞書を識別部12内に用意
する必要がなく、辞書容量の減少により照合時間を短縮
でき、処理速度の高速化が図れると共に、ハード規模が
小さく、認識精度の良い文字認識方法を提供できる。(a) In this embodiment, the character tilt detection unit calculates the coordinates giving the maximum and minimum values of αχ+βy regarding the black pixels of the character pattern in the plane expressed by the X-Y coordinate system that includes the character slam in the button register 4. 8, and further detects the inclination angle of the character pattern based on the coordinates. Then, a marginal distribution extracting section 9 extracts a marginal distribution according to the inclination angle, and a dividing point detecting section 10 detects dividing points using the marginal distribution. Thereafter, the feature matrix extraction unit 11 sets division boundaries based on the inclination angle and peripheral distribution, and extracts a feature matrix. Therefore, the extracted features are stable even for character patterns having an inclination. Therefore, there is no need to prepare a dictionary corresponding to the deformation of character slant in the identification unit 12, and the reduction in dictionary capacity can shorten the collation time, increase processing speed, and reduce the hardware scale, improving recognition accuracy. It can provide a good character recognition method.
(b) 上記実施例では、第4図のような印刷文字に
おける斜体字の認識方法について説明したが、認識対象
文字は、これに限定されない。例えば、手書き文字の法
学で、右上がりに記入された文字を認識対象とする場合
は、文字の4個の特徴点を結んで得られる四辺形の上辺
、下辺が傾斜しているものとして、上記実施例とほぼ同
様の処理で認識することができる。(b) In the above embodiment, a method for recognizing italic characters in printed characters as shown in FIG. 4 has been described, but characters to be recognized are not limited to this. For example, in the law of handwritten characters, if the target is a character written upward to the right, the upper and lower sides of the quadrilateral obtained by connecting the four feature points of the character are slanted, and the above This can be recognized using almost the same processing as in the embodiment.
なお、本発明は、上記実施例に限定されず、例えば第3
図の文字傾斜検出部8を、他の機能ブロックで構成した
り、あるいはそれらの機能ブロックを、コンピュータを
用いたプログラム制御等で実行する構成にしてもよい。Note that the present invention is not limited to the above-mentioned embodiments, and for example, the third embodiment
The character inclination detection section 8 shown in the figure may be constructed of other functional blocks, or these functional blocks may be executed under program control using a computer.
さらに、その文字傾斜検出処理を、第6図(a>、(b
)以外の処理フローチャートで実行する等、種々の変形
が可能である。Furthermore, the character slant detection processing is performed in Fig. 6 (a>, (b)
) Various modifications are possible, such as executing with a processing flowchart other than ).
(発明の効果)
以上詳細に説明したように、本発明によれば、文字パタ
ンを含むX−Y座標系で表現される平面において、αχ
士βyの最大値及び最小値を与える座標を求め、その座
標に基づき文字パタンの傾斜角を検出する。次に、周辺
分布を抽出し、その周辺分布を用いて分割点を検出する
。その後、該傾斜角及び周辺分布に基づき、文字外接枠
内の分割境界を設定し、その分割境界で分割された領域
毎に、特徴を抽出するようにしている。そのため、傾斜
を有する文字パタンについても、抽出される特徴が安定
となり、文字傾斜の変形に対応した辞書を用意する必要
がない。これにより、辞書容量の減少と、それによる照
合時間の短縮化によって処理速度の高速化が図れると共
に、小さなハード規模で、認識精度の良い文字認識方法
を実現できる。(Effects of the Invention) As explained in detail above, according to the present invention, in the plane expressed by the X-Y coordinate system including the character pattern, αχ
The coordinates giving the maximum and minimum values of βy are determined, and the inclination angle of the character pattern is detected based on the coordinates. Next, a marginal distribution is extracted, and dividing points are detected using the marginal distribution. Thereafter, a dividing boundary within the character circumscribing frame is set based on the inclination angle and peripheral distribution, and features are extracted for each area divided by the dividing boundary. Therefore, the extracted features are stable even for character patterns having an inclination, and there is no need to prepare a dictionary that accommodates the deformation of the character inclination. As a result, the processing speed can be increased by reducing the dictionary capacity and the collation time thereby, and a character recognition method with high recognition accuracy can be realized on a small hardware scale.
第1図は本発明の実施例を示すもので、文字認識方法を
説明するための文字認識装置の機かとブロック図、第2
図(a)、(b)は従来の文字認識方法を説明するため
の図、第3図は第1図における文字傾斜検出部の機能ブ
ロック図、第4図は斜体字の例を示す図、第5図(a>
、(b)は傾斜度検出方法を説明するための特徴点の検
出例を示す図、第6図(a)、(b)は文字傾斜検出の
フローチャート、第7図(a)、(b)+は周辺分布抽
出方法を説明するための図である。
1・・・・・・光電変換部、2・・・・・・行バッファ
、3・・・・・・文字切出部、4・・・・・・バタンレ
ジスタ、5・・・・・・文字枠検出部、6・・・・・・
線幅測定部、7・・・・・・サブバタン抽出部、8・・
・・・・文字傾斜検出部、9−−−−0:周辺分布抽出
部、10・・・・・・分割点検出部、11・・・・・・
特徴マトリクス抽出部、12・・・・・・識別部、21
・・・・・・X座標発生手段、22・・・・・・Y座標
発生手段、30,40・・・・・・座標検出手段、50
・・・・・・傾斜度算出手段。
餅米の文字証、讃、方法
尭2図
第3図
?体字の例
莞4図
傾Pr度検出方法
第5図
泰小惰史埋
(bン
文字イ頃↑(検出フローヲ+−ト
蝉6図
文字イ頃金I杢出フローヲ+−ト
W)6図
周辺チ151由工方夕大
亮7図Fig. 1 shows an embodiment of the present invention, and shows a block diagram of a character recognition device for explaining a character recognition method, and Fig. 2 shows an embodiment of the present invention.
Figures (a) and (b) are diagrams for explaining the conventional character recognition method, Figure 3 is a functional block diagram of the character slant detection section in Figure 1, Figure 4 is a diagram showing an example of italic characters, Figure 5 (a>
, (b) is a diagram showing an example of detection of feature points to explain the slope detection method, Figures 6 (a) and (b) are flowcharts of character slope detection, and Figures 7 (a) and (b) + is a diagram for explaining a marginal distribution extraction method. 1...Photoelectric conversion unit, 2...Line buffer, 3...Character cutting unit, 4...Bun register, 5... Character frame detection section, 6...
Line width measurement section, 7... Sub-battle extraction section, 8...
...Character slope detection section, 9-----0: Marginal distribution extraction section, 10... Division point detection section, 11...
Feature matrix extraction unit, 12...Identification unit, 21
. . . X coordinate generation means, 22 . . . Y coordinate generation means, 30, 40 . . . Coordinate detection means, 50
...Inclination calculation means. Mochi rice letter certificate, san, method 2 figure 3? Examples of fonts Figure 4 Inclination Pr degree detection method Figure 5 Tai small inert history buried (b ん letter I ↑ (detection flow + - to cicada 6) Figure surrounding area 151 Yukokata Yudaisho Figure 7
Claims (1)
枠を検出し、該外接枠内を複数の領域に分割し、該分割
された分割領域毎に特徴を抽出した後、該抽出された特
徴と予め用意した標準特徴との照合により、前記文字を
認識する文字認識方法において、 前記文字パタンを含むX−Y座標系で定義される平面に
おいて、少なくとも2組の特定の実数α、βについて前
記文字パタンの黒画素に関するαx+βy(但し、x、
yはX−Y座標系の座標値)の最大値及び最小値を与え
る座標を求め、該座標に基づき前記文字パタンの傾斜角
を検出し、前記傾斜角に基づき前記文字パタンを走査し
て周辺分布を抽出し、前記周辺分布を使用して前記外接
枠内の分割点を検出した後、 前記傾斜角及び分割点に基づき前記外接枠内の分割境界
を設定し、該分割境界に基づき前記外接枠内を複数の領
域に分割することを特徴とする文字認識方法。[Scope of Claims] A circumscribing frame of a character pattern obtained by photoelectrically converting characters on a medium is detected, the inside of the circumscribing frame is divided into a plurality of regions, and features are extracted for each divided region. Then, in the character recognition method that recognizes the character by comparing the extracted features with standard features prepared in advance, at least two sets of specified αx+βy (however, x,
Find the coordinates that give the maximum and minimum values (y is the coordinate value of the X-Y coordinate system), detect the inclination angle of the character pattern based on the coordinates, and scan the character pattern based on the inclination angle to determine the surrounding area. After extracting the distribution and detecting dividing points within the circumscribing frame using the marginal distribution, setting dividing boundaries within the circumscribing frame based on the slope angle and dividing points, and determining the dividing points within the circumscribing frame based on the dividing boundaries. A character recognition method characterized by dividing the inside of a frame into multiple regions.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2100829A JP2749947B2 (en) | 1990-04-17 | 1990-04-17 | Character recognition method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2100829A JP2749947B2 (en) | 1990-04-17 | 1990-04-17 | Character recognition method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH04588A true JPH04588A (en) | 1992-01-06 |
| JP2749947B2 JP2749947B2 (en) | 1998-05-13 |
Family
ID=14284212
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2100829A Expired - Lifetime JP2749947B2 (en) | 1990-04-17 | 1990-04-17 | Character recognition method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2749947B2 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS603078A (en) * | 1983-06-21 | 1985-01-09 | Oki Electric Ind Co Ltd | Character recognition system |
| JPS63238686A (en) * | 1987-03-26 | 1988-10-04 | Oki Electric Ind Co Ltd | Feature extracting system |
-
1990
- 1990-04-17 JP JP2100829A patent/JP2749947B2/en not_active Expired - Lifetime
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS603078A (en) * | 1983-06-21 | 1985-01-09 | Oki Electric Ind Co Ltd | Character recognition system |
| JPS63238686A (en) * | 1987-03-26 | 1988-10-04 | Oki Electric Ind Co Ltd | Feature extracting system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2749947B2 (en) | 1998-05-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US4408342A (en) | Method for recognizing a machine encoded character | |
| EP0689153A2 (en) | Character recognition | |
| JPH08508128A (en) | Image classification method and apparatus using distribution map | |
| ITRM930179A1 (en) | APPARATUS AND PROCEDURE FOR THE RECOGNITION OF MANUSCRIPT CHARACTERS. | |
| JPH04588A (en) | Method for recognizing character | |
| US6859556B2 (en) | Word recognizing apparatus for dynamically generating feature amount of word and method thereof | |
| JP2749946B2 (en) | Character recognition method | |
| JP2616994B2 (en) | Feature extraction device | |
| JPH04590A (en) | Method for character recognition | |
| JPH0147829B2 (en) | ||
| JPH04589A (en) | Method for extracting feature | |
| JPH03126188A (en) | Character recognizing device | |
| JP3083609B2 (en) | Information processing apparatus and character recognition apparatus using the same | |
| JP2582611B2 (en) | How to create a multi-font dictionary | |
| JP2708604B2 (en) | Character recognition method | |
| JPH01152586A (en) | Character graphic recognizing method | |
| JPH02287894A (en) | Character recognizing device | |
| CN115512385A (en) | Bitmap-format reinforcing steel drawing data extraction method and system | |
| JPH0656625B2 (en) | Feature extraction method | |
| JPH04591A (en) | Method for feature extraction | |
| JP2881080B2 (en) | Feature extraction method | |
| JP3127413B2 (en) | Character recognition device | |
| JPH0310389A (en) | Character recognizing device | |
| JPH01152585A (en) | Feature extracting method | |
| JPH0547871B2 (en) |