JPH08123779A - Method for learning pattern - Google Patents
Method for learning patternInfo
- Publication number
- JPH08123779A JPH08123779A JP6263739A JP26373994A JPH08123779A JP H08123779 A JPH08123779 A JP H08123779A JP 6263739 A JP6263739 A JP 6263739A JP 26373994 A JP26373994 A JP 26373994A JP H08123779 A JPH08123779 A JP H08123779A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- neural network
- recognition
- data
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 35
- 238000013528 artificial neural network Methods 0.000 claims abstract description 34
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 210000002569 neuron Anatomy 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000013500 data storage Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 claims 1
- 230000001537 neural effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 230000007423 decrease Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Landscapes
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明はパターン学習方法に関
し、特にニューラルネット認識手段を有するパターン学
習方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern learning method, and more particularly to a pattern learning method having a neural network recognition means.
【0002】[0002]
【従来の技術】図7は従来のパターン学習方法の構成を
示すブロック図である。図7を参照すると、この従来の
パターン学習方法において、スキャナー1は被認識対象
を光学的に走査して映像信号aを出力する。A/D変換
部2は映像信号aを入力しアナログ画像をデジタル化
し、デジタル画像bを出力する。画像メモリ3はデジタ
ル画像bを記憶し、画像データcを出力する。2値化処
理部4は画像データcを入力し、パターン部を“1”、
背景部を“0”に割当て、2値画像dを出力する。パタ
ーン領域検出部5は、2値画像dを入力し、投影を行っ
て認識パターンを切り出し、パターンデータeを作成す
る。パターンデータeは格子分割部6で、分割データf
に変換される。ニューラルネット認識部70は格子分割
データfを1入力パターンデータとして解釈し、学習を
行って計算出力信号gを出力する。認識判定部8は計算
出力信号gの最大値を探索し、その最大値に於けるカテ
ゴリ分類を認識結果とする。学習判定部9はこの認識結
果を規格値以下であることを確認して、すべての学習を
終了する。2. Description of the Related Art FIG. 7 is a block diagram showing the structure of a conventional pattern learning method. Referring to FIG. 7, in the conventional pattern learning method, the scanner 1 optically scans a recognition target and outputs a video signal a. The A / D converter 2 inputs the video signal a, digitizes an analog image, and outputs a digital image b. The image memory 3 stores the digital image b and outputs the image data c. The binarization processing unit 4 inputs the image data c, sets the pattern portion to “1”,
The background part is assigned to "0" and the binary image d is output. The pattern area detecting unit 5 inputs the binary image d, projects the binary image d, cuts out a recognition pattern, and creates pattern data e. The pattern data e is divided by the grid division unit 6 into division data f.
Is converted to. The neural network recognition unit 70 interprets the grid division data f as one input pattern data, performs learning, and outputs a calculation output signal g. The recognition determination unit 8 searches for the maximum value of the calculation output signal g and sets the category classification at the maximum value as the recognition result. The learning determination unit 9 confirms that the recognition result is equal to or less than the standard value, and finishes all learning.
【0003】図5は、D.E.RUMELHART等が
PARARELL DISTRIBUTED PROC
ESSING,vol1,MIT Press,198
6,318〜330頁に示しているニューラルネット認
識部70の動作を示す流れ図である。図5を参照する
と、従来のパターン学習方法のニューラルネット認識部
70は、誤差逆伝搬法のみを用いて学習時の荷重、バイ
アス値修正計算を行っている。従って、学習の収束段階
で、学習が停止することがある。また、そのときにでき
た荷重値を任意パターンデータに対しそのまま使用して
認識している。FIG. E. FIG. RUMELHART etc. are PARAELL DISTRIBUTED PROC
ESSING, vol1, MIT Press, 198
6 is a flowchart showing the operation of the neural network recognition unit 70 shown in pages 6, 318 to 330. With reference to FIG. 5, the neural network recognition unit 70 of the conventional pattern learning method performs the weight and bias value correction calculation at the time of learning by using only the error back propagation method. Therefore, learning may stop at the convergence stage of learning. Further, the load value generated at that time is used as it is for the arbitrary pattern data for recognition.
【0004】[0004]
【発明が解決しようとする課題】上述した従来のパター
ン学習方法は、単純な誤差逆伝搬法を用いているので、
図6に示す様に学習の停止が起こり易く、学習効率が落
ちる。また、生成された荷重値が適切でないため、パタ
ーンの認識率の向上が望めないので、再度学習のやり直
しをしなければならない。Since the conventional pattern learning method described above uses the simple error back-propagation method,
As shown in FIG. 6, learning is likely to stop, and learning efficiency decreases. In addition, since the generated weight value is not appropriate, the pattern recognition rate cannot be expected to be improved, so that the learning must be redone.
【0005】本発明の目的は、荷重修正をする際に学習
サイクルにおける自乗誤差和の符号変化から荷重修正係
数をルールによって変更し、学習の停止を抑制し、高速
な学習方法を提供することにある。An object of the present invention is to provide a high-speed learning method by changing the weight correction coefficient according to a rule from the sign change of the sum of squared errors in the learning cycle when the weight is corrected, suppressing the stop of learning. is there.
【0006】[0006]
【課題を解決するための手段】本発明のパターン学習方
法は、パターン情報を読み取って認識するパターン学習
方法において、非認識対象を光学的に操作し撮像するス
キャナーと、前記スキャナーから得られる前記非認識対
象の撮像信号をデジタル信号に変換するアナログデジタ
ル変換手段と、前記デジタル信号を記憶し画像データを
出力する画像データ記憶手段と、前記画像データを2値
化し2値画像を出力する2値化手段と、前記2値画像か
ら前記被認識対象の領域を検出する領域検出手段と、検
出された前記被認識対象の領域データからニューラルネ
ット認識入力パターンとなる格子分割データを作成する
格子分割手段と、前記格子分割データをニューラルネッ
ト学習を用いて計算し前記被認識対象を認識するニュー
ラルネット認識手段と、前記ニューラルネット認識手段
の最大値を検出し、そのときのカテゴリを認識結果とす
る認識判定手段とを含み、前記ニューラルネット認識手
段には学習過程計算において第M層の第j番目のニュー
ロンの第k回目の学習サイクルの荷重修正値をΔω(M)
ij(k)とするときの学習則が、O(M-1) j を第M層の
j番目のニューロン出力値とすると、 Δω(M) ij(k+1)=η・δ(M) j ・O(M-1) j +α
・Δω(M) ij(k) 第M層の第j番目のニューロンの第k番目のバイアス修
正量Δθ(M) ij(k)が Δθ(M) ij(k+1)=η・δ(M) j +α・Δθ(M) ij
(k) ここに、δ(M) j =f′(j)・(1−f(j)) f(x)=1/(1+exp(−X)) ηは荷重修正係数、αは弾性係数 とする学習手段を含み、教師データy(j)とするとき
のニューラルネット認識入力データの全パターンに対す
る1サイクルの学習に対する誤差評価関数A pattern learning method of the present invention is a pattern learning method for reading and recognizing pattern information, wherein a scanner for optically operating a non-recognition target to pick up an image, and a non-scanner obtained from the scanner. Analog-to-digital conversion means for converting the image pickup signal of the recognition object into a digital signal, image data storage means for storing the digital signal and outputting image data, and binarization for binarizing the image data and outputting a binary image. Means, area detection means for detecting the area to be recognized from the binary image, and grid division means for creating grid division data to be a neural network recognition input pattern from the detected area data to be recognized. , A neural network recognition hand for recognizing the recognition target by calculating the grid division data using neural network learning And a recognition determination means that detects the maximum value of the neural network recognition means and uses the category at that time as a recognition result. The neural network recognition means includes the j-th neuron in the Mth layer in the learning process calculation. Δω (M) is the weight correction value of the k-th learning cycle of
If the learning rule when ij (k) is O (M-1) j is the j-th neuron output value of the M-th layer, Δω (M) ij (k + 1) = η · δ (M) j · O (M-1) j + α
Δω (M) ij (k) The kth bias correction amount Δθ (M) ij (k) of the jth neuron in the Mth layer is Δθ (M) ij (k + 1) = η · δ (M) j + α ・ Δθ (M) ij
(K) where δ (M) j = f ′ (j) · (1−f (j)) f (x) = 1 / (1 + exp (−X)) η is a load correction coefficient, and α is an elastic coefficient. Error learning function for one cycle of learning for all patterns of the neural network recognition input data when the learning data is y (j)
【0007】 [0007]
【0008】を設定し、規格値ε1 以下になるまで学習
を実行する過程で、ニューラルネット認識入力データp
の全パターン入力後の各々のカテゴリパターンに対し
て、自乗誤差和の変化量ΔEp =Ep (k+1)−Ep
(k)の符号変化に基づき、 if ΔEp > 0 THEN η=η×φ α=α if ΔEp < 0 THEN η=η×β α=0 ここに、β<1,φ>1, ηmin <η<ηmax φ、βは学習効率化係数、ηは荷重修正係数、αは慣性
係数 なる学習ルールを用いて荷重の一括修正を実行すること
を特徴とする。In the process of setting and setting the learning value to ε 1 or less, the neural network recognition input data p
Change of the sum of squared errors ΔE p = E p (k + 1) −E p for each category pattern after inputting all patterns
Based on the sign change of (k), if ΔE p > 0 THEN η = η × φ α = α if ΔE p <0 THEN η = η × β α = 0 where β <1, φ> 1, η min <Η <η max φ, β is a learning efficiency improvement coefficient, η is a weight correction coefficient, and α is an inertia coefficient.
【0009】[0009]
【実施例】次に、本発明について図面を参照して説明す
る。本発明の一実施例をブロックで示す図1を参照する
と、この実施例のパターン学習方法において、スキャナ
ー1は被認識対象を光学的に走査して映像信号aを出力
する。A/D変換部2は映像信号aを入力しアナログ画
像をデジタル化し、デジタル画像bを出力する。画像メ
モリ3はデジタル画像bを記憶し、画像データcを出力
する。2値化処理部4は画像データcを入力し、パター
ン部を“1”、背景部を“0”に割当て、2値画像dを
出力する。パターン領域検出部5では、2値画像dを入
力し、投影を行って認識パターンを切り出し、パターン
データeを作成する。パターンデータeは格子分割部6
で、分割データfに変換される。ニューラルネット認識
部7は格子分割データfを1入力パターンデータとして
解釈し、学習を行って計算出力信号gを出力する。認識
判定部8は計算出力信号gの最大値を探索し、その最大
値に於けるカテゴリ分類を認識結果とする。学習判定部
9はこの認識結果を規格値以下であることを確認して、
すべての学習を終了する。Next, the present invention will be described with reference to the drawings. Referring to FIG. 1, which shows a block diagram of an embodiment of the present invention, in the pattern learning method of this embodiment, a scanner 1 optically scans an object to be recognized and outputs a video signal a. The A / D converter 2 inputs the video signal a, digitizes an analog image, and outputs a digital image b. The image memory 3 stores the digital image b and outputs the image data c. The binarization processing unit 4 inputs the image data c, assigns the pattern portion to “1” and the background portion to “0”, and outputs the binary image d. The pattern area detection unit 5 inputs the binary image d, projects it to cut out a recognition pattern, and creates pattern data e. The pattern data e is the grid division unit 6
Is converted into the divided data f. The neural network recognition unit 7 interprets the grid division data f as one input pattern data, performs learning, and outputs a calculation output signal g. The recognition determination unit 8 searches for the maximum value of the calculation output signal g and sets the category classification at the maximum value as the recognition result. The learning determination unit 9 confirms that the recognition result is below the standard value,
Finish all learning.
【0010】ここで従来のパターン学習方法との相違は
ニューラルネット認識部7にある。図2はこの実施例の
ニューラルネット認識部7の学習処理を示す流れ図、図
3は図2に示されるニューラルネット認識部7の処理の
模式図、図4はこの実施例の学習修正方法を用いた場合
の自乗誤差和と荷重空間学習進度との関係図である。図
2,図3および図4を図1に併せて参照すると、まず、
格子分割データfをニューラルネット認識部7に入力し
(手順10)、教師データyj を設定する(手順1
1)。次に、ニューラルネット出力層ユニット上のニュ
ーロン出力値Oj を計算し(手順12)、全パターン入
力の自乗誤差和を次式により計算する(手順13)。The difference from the conventional pattern learning method lies in the neural network recognition section 7. 2 is a flow chart showing the learning process of the neural network recognition unit 7 of this embodiment, FIG. 3 is a schematic diagram of the processing of the neural network recognition unit 7 shown in FIG. 2, and FIG. 4 is the learning correction method of this embodiment. FIG. 10 is a relationship diagram between the sum of squared errors and the progress of the weighted space learning in the case of occurrence. Referring to FIGS. 2, 3 and 4 together with FIG. 1, first,
The grid division data f is input to the neural network recognition unit 7 (procedure 10) and the teacher data y j is set (procedure 1).
1). Next, the neuron output value O j on the neural network output layer unit is calculated (procedure 12), and the sum of squared errors of all pattern inputs is calculated by the following equation (procedure 13).
【0011】 [0011]
【0012】図3に示すようにニューラルネット認識部
7のニューラルネットは階層型であるので、規格値εl
の条件が満たされるまで各々の階層間荷重Δω
(M) ij(k)およびバイアス値修正量Δθ(M) ij(k)
は、次式の荷重修正式で与えられる(手順19)。As shown in FIG. 3, since the neural network of the neural network recognition unit 7 is of a hierarchical type, the standard value ε l
Until each condition is satisfied Δω
(M) ij (k) and bias value correction amount Δθ (M) ij (k)
Is given by the following load correction equation (procedure 19).
【0013】Δω(M) ij(k+1)=η・δ(M) j ・O
(M-1) j +α・Δω(M) ij(k) Δθ(M) ij(k+1)=η・δ(M) j +α・Δθ(M) ij
(k) ここで、ηは荷重修正係数、δ(M) j は第M番目の層に
於けるj番目のニューロンの修正値、αは慣性係数、Δ
θ(M) j(k) は第M番目の層の第k回目の学習サイクルに
於けるj番目のニューロンのバイアス値、Δωij(k) は
荷重修正量を示す。さらに、ここで得た階層間荷重Δω
(M) ij(k)およびバイアス値修正量Δθ(M) ij(k)
をメモリに記憶させる(手順20)。荷重修正式および
図4から明かなように、ΔEpの符号変化が学習進度に
対応し荷重空間での収束方向を定め、同じニューラルネ
ット入力パタンに対して、常に‖Δω1 ‖>‖Δω2 ‖
となるので、最小点(学習の収束位置)への到達、すな
わち学習の高速化と探索効率の向上が同時に実行される
ことになる。以上述べた荷重修正計算値の終了を確認し
(手順21)、YESのときは一学習サイクルの荷重修
正が終了したとみなし、荷重の一括修正を実行する(手
順22)。これを規格値ε1 以下になった段階で(手順
15)、ニューラルネット出力計算結果を認識判定部8
に送り、その結果の最大値を認識結果カテゴリとする。
更に学習終了判定部9で学習の終了または継続を確認し
て学習を修了する。Δω (M) ij (k + 1) = η · δ (M) j · O
(M-1) j + α ・ Δω (M) ij (k) Δθ (M) ij (k + 1) = η ・ δ (M) j + α ・ Δθ (M) ij
(K) where η is a weight correction coefficient, δ (M) j is a correction value of the j-th neuron in the M-th layer, α is an inertia coefficient, and Δ
θ (M) j (k) represents the bias value of the j-th neuron in the k-th learning cycle of the M-th layer, and Δω ij (k) represents the weight correction amount. Furthermore, the inter-tier load Δω obtained here
(M) ij (k) and bias value correction amount Δθ (M) ij (k)
Is stored in the memory (procedure 20). As is clear from the load correction formula and FIG. 4, the sign change of ΔEp corresponds to the learning progress and determines the convergence direction in the load space, and for the same neural network input pattern, ‖Δω 1 ‖> ‖Δω 2 ‖
Therefore, the minimum point (learning convergence position) is reached, that is, the learning speed is increased and the search efficiency is improved at the same time. The end of the load correction calculation value described above is confirmed (procedure 21), and if YES, it is considered that the load correction of one learning cycle is completed, and the batch correction of the load is executed (procedure 22). When this falls below the standard value ε 1 (procedure 15), the neural network output calculation result is recognized by the recognition determination unit 8
To the recognition result category.
Further, the learning end judgment unit 9 confirms the end or continuation of the learning and finishes the learning.
【0014】[0014]
【発明の効果】以上説明したように、本発明によれば、
階層型ニューラルネットの全入力パターン入力後に各々
のカテゴリのニューラルネット出力値と教師信号との差
である自乗誤差和を計算し、次の学習サイクルにおける
自乗誤差和との差分の符号変化から、学習習熟度を推定
しながら荷重修正効率を変化させることができるので、
誤差逆伝搬法のみで学習させたときに生じやすい学習の
停止を抑制し、学習の高速化が計れる。As described above, according to the present invention,
After inputting all input patterns of the hierarchical neural network, calculate the sum of squared errors, which is the difference between the output value of each category and the teacher signal, and learn from the sign change of the difference with the sum of squared errors in the next learning cycle. Since the load correction efficiency can be changed while estimating the proficiency level,
It is possible to speed up learning by suppressing the stop of learning that tends to occur when learning is performed only by the error back propagation method.
【図1】本発明の一実施例の構成を示すブロック図であ
る。FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.
【図2】この実施例のニューラルネット認識部の動作を
示す流れ図である。FIG. 2 is a flow chart showing an operation of a neural network recognition unit of this embodiment.
【図3】ニューラルネット認識部の処理過程の模式図で
ある。FIG. 3 is a schematic diagram of a processing process of a neural network recognition unit.
【図4】この実施例の学習修正方式を用いた場合の自乗
誤差和と学習回数との関係図である。FIG. 4 is a relationship diagram between the sum of squared errors and the number of times of learning when the learning correction method of this embodiment is used.
【図5】従来例のパターン学習方法のニューラルネット
認識部の動作を示す流れ図である。FIG. 5 is a flow chart showing an operation of a neural network recognition unit of a conventional pattern learning method.
【図6】従来の荷重修正式を用いた時に生じやすい学習
の停止をした場合の自乗誤差和と学習回数との関係図で
ある。FIG. 6 is a relationship diagram between the sum of squared errors and the number of times of learning when the learning that is likely to occur when the conventional load correction formula is used is stopped.
【図7】従来例の構成を示すブロック図である。FIG. 7 is a block diagram showing a configuration of a conventional example.
1 スキャナー 2 A/D変換部 3 画像メモリ 4 2値化処理部 5 パターン領域検出部 6 格子分割部 7 ニューラルネット認識部 8 認識判定部 9 学習終了判定部 30 画像処理ユニット DESCRIPTION OF SYMBOLS 1 Scanner 2 A / D conversion unit 3 Image memory 4 Binarization processing unit 5 Pattern area detection unit 6 Lattice division unit 7 Neural network recognition unit 8 Recognition determination unit 9 Learning end determination unit 30 Image processing unit
Claims (1)
ーン学習方法において、非認識対象を光学的に操作し撮
像するスキャナーと、前記スキャナーから得られる前記
非認識対象の撮像信号をデジタル信号に変換するアナロ
グデジタル変換手段と、前記デジタル信号を記憶し画像
データを出力する画像データ記憶手段と、前記画像デー
タを2値化し2値画像を出力する2値化手段と、前記2
値画像から前記被認識対象の領域を検出する領域検出手
段と、検出された前記被認識対象の領域データからニュ
ーラルネット認識入力パターンとなる格子分割データを
作成する格子分割手段と、前記格子分割データをニュー
ラルネット学習を用いて計算し前記被認識対象を認識す
るニューラルネット認識手段と、前記ニューラルネット
認識手段の最大値を検出し、そのときのカテゴリを認識
結果とする認識判定手段とを含み、前記ニューラルネッ
ト認識手段には学習過程計算において第M層の第j番目
のニューロンの第k回目の学習サイクルの荷重修正値を
Δω(M) ij(k)とするときの学習則が、O(M-1) j を
第M層のj番目のニューロン出力値とすると、 Δω(M) ij(k+1)=η・δ(M) j ・O(M-1) j +α
・Δω(M) ij(k) 第M層の第j番目のニューロンの第k番目のバイアス修
正量Δθ(M) ij(k)が Δθ(M) ij(k+1)=η・δ(M) j +α・Δθ(M) ij
(k) ここに、δ(M) j =f′(j)・(1−f(j)) f(x)=1/(1+exp(−X)) ηは荷重修正係数、αは弾性係数 とする学習手段を含み、教師データy(j)とするとき
のニューラルネット認識入力データの全パターンに対す
る1サイクルの学習に対する誤差評価関数 を設定し、規格値ε1 以下になるまで学習を実行する過
程で、ニューラルネット認識入力データpの全パターン
入力後の各々のカテゴリパターンに対して、自乗誤差和
の変化量ΔEp =Ep (k+1)−Ep (k)の符号変
化に基づき、 if ΔEp > 0 THEN η=η×φ α=α if ΔEp < 0 THEN η=η×β α=0 ここに、β<1,φ>1, ηmin <η<ηmax φ、βは学習効率化係数、ηは荷重修正係数、αは慣性
係数 なる学習ルールを用いて荷重の一括修正を実行すること
を特徴とするパターン学習方法。1. A pattern learning method for reading and recognizing pattern information, wherein a scanner for optically operating a non-recognition target to capture an image, and an analog for converting an imaging signal of the non-recognition target obtained from the scanner into a digital signal. Digital conversion means; image data storage means for storing the digital signal and outputting image data; binarization means for binarizing the image data and outputting a binary image;
Area detection means for detecting the area to be recognized from the value image, grid division means for creating grid division data to be a neural net recognition input pattern from the detected area data to be recognized, and the grid division data A neural network recognition means for recognizing the object to be recognized by calculating using a neural network learning, and a recognition determination means for detecting the maximum value of the neural network recognition means and using the category at that time as a recognition result. In the neural network recognition means, the learning rule when the weight correction value of the j-th neuron in the M-th layer in the k-th learning cycle in the learning process calculation is Δω (M) ij (k) is O ( If M-1) j is the j-th neuron output value of the M-th layer, Δω (M) ij (k + 1) = η · δ (M) j · O (M-1) j + α
Δω (M) ij (k) The kth bias correction amount Δθ (M) ij (k) of the jth neuron in the Mth layer is Δθ (M) ij (k + 1) = η · δ (M) j + α ・ Δθ (M) ij
(K) where δ (M) j = f ′ (j) · (1−f (j)) f (x) = 1 / (1 + exp (−X)) η is a load correction coefficient, and α is an elastic coefficient. Error learning function for one cycle of learning for all patterns of the neural network recognition input data when the learning data is y (j) In the process of performing learning until the standard value ε 1 or less is reached, the change amount ΔE p = E p of the sum of squared errors for each category pattern after all patterns of the neural network recognition input data p are input. Based on the sign change of (k + 1) −E p (k), if ΔE p > 0 THEN η = η × φ α = α if ΔE p <0 THEN η = η × β α = 0 where β <1, φ> 1, η min <η <η max φ, β is a learning efficiency improvement coefficient, η is a weight correction coefficient, and α is an inertia coefficient. Pattern learning characterized by executing a batch correction of loads using a learning rule. Method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP6263739A JP2773658B2 (en) | 1994-10-27 | 1994-10-27 | Pattern learning method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP6263739A JP2773658B2 (en) | 1994-10-27 | 1994-10-27 | Pattern learning method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH08123779A true JPH08123779A (en) | 1996-05-17 |
| JP2773658B2 JP2773658B2 (en) | 1998-07-09 |
Family
ID=17393623
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP6263739A Expired - Lifetime JP2773658B2 (en) | 1994-10-27 | 1994-10-27 | Pattern learning method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2773658B2 (en) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03186986A (en) * | 1989-12-15 | 1991-08-14 | Sharp Corp | Character recognition device using neural network |
-
1994
- 1994-10-27 JP JP6263739A patent/JP2773658B2/en not_active Expired - Lifetime
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03186986A (en) * | 1989-12-15 | 1991-08-14 | Sharp Corp | Character recognition device using neural network |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2773658B2 (en) | 1998-07-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3088171B2 (en) | Self-organizing pattern classification system and classification method | |
| CN109977918A (en) | A kind of target detection and localization optimization method adapted to based on unsupervised domain | |
| JPH0573687A (en) | Automatic classfying method | |
| JP7028322B2 (en) | Information processing equipment, information processing methods and information processing programs | |
| JPH10261089A (en) | Method and device for graphic position detection, and machine-readable recording medium where program is recorded | |
| CN114594443B (en) | A method and system for weather radar echo extrapolation based on self-attention mechanism and predictive recurrent neural network | |
| JP2765335B2 (en) | Method and apparatus for smoothing ridge direction pattern | |
| CN117132997A (en) | A handwritten form recognition method based on multi-head attention mechanism and knowledge graph | |
| KR102177728B1 (en) | Data augmentation method and apparatus using convolution neural network | |
| CN113343989A (en) | Target detection method and system based on self-adaption of foreground selection domain | |
| JPH08123779A (en) | Method for learning pattern | |
| CN117953266A (en) | Aerial photography garbage detection method based on deformable convolution | |
| CN113673271B (en) | Double-layer labeling calculation method for secondary loss based on pet detection | |
| JPH09146907A (en) | Pattern learning method | |
| JP2950023B2 (en) | Pattern recognition dictionary generation device and pattern recognition device | |
| JP2778194B2 (en) | Pattern recognition method and apparatus | |
| JP3248965B2 (en) | Binary threshold value determination device | |
| JPH07175776A (en) | Pattern learning recognition device | |
| JPH07271916A (en) | Learning pattern generation device and character recognition device using the same | |
| Zhang et al. | Fish image instance segmentation: an enhanced hybrid task cascade approach | |
| CN116012299A (en) | A method for detecting the hydrophobicity level of composite insulators based on target recognition | |
| JP2967047B2 (en) | Pattern recognition method | |
| JP2682203B2 (en) | Character recognition method | |
| CN119169489B (en) | A method for identifying insulator defects | |
| JP3109476B2 (en) | Character recognition device with candidate number control function and method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19980324 |