JPH08123779A - パターン学習方法 - Google Patents
パターン学習方法Info
- Publication number
- JPH08123779A JPH08123779A JP6263739A JP26373994A JPH08123779A JP H08123779 A JPH08123779 A JP H08123779A JP 6263739 A JP6263739 A JP 6263739A JP 26373994 A JP26373994 A JP 26373994A JP H08123779 A JPH08123779 A JP H08123779A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- neural network
- recognition
- data
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 35
- 238000013528 artificial neural network Methods 0.000 claims abstract description 34
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 210000002569 neuron Anatomy 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000013500 data storage Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 claims 1
- 230000001537 neural effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 230000007423 decrease Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Landscapes
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】荷重修正の際、学習サイクルの自乗誤差和符号
変化から荷重修正係数をルールにより変更し、学習の停
止を抑制し、高速な学習方法を提供する。 【構成】このパターン学習方法は、まず、格子分割デー
タfを入力し(手順10)、教師データyj を設定する
(手順11)。次に、ニューラルネット出力層ユニット
上のニューロン出力値Oj を計算し(手順12)、全パ
ターン入力の自乗誤差和を計算する(手順13)。階層
間荷重Δω(M) ij(k)およびバイアス値修正量Δθ
(M) ij(k)は、規格値εl の条件が満たされるまで荷
重修正式で与えられ(手順19)、メモリに記憶される
(手順20)。荷重修正計算値の終了を確認し(手順2
1)、YESのときは一学習サイクルの荷重修正が終了
したとみなし、荷重の一括修正を実行する(手順2
2)。これを規格値ε1 以下になった段階で(手順1
5)学習を修了する。
変化から荷重修正係数をルールにより変更し、学習の停
止を抑制し、高速な学習方法を提供する。 【構成】このパターン学習方法は、まず、格子分割デー
タfを入力し(手順10)、教師データyj を設定する
(手順11)。次に、ニューラルネット出力層ユニット
上のニューロン出力値Oj を計算し(手順12)、全パ
ターン入力の自乗誤差和を計算する(手順13)。階層
間荷重Δω(M) ij(k)およびバイアス値修正量Δθ
(M) ij(k)は、規格値εl の条件が満たされるまで荷
重修正式で与えられ(手順19)、メモリに記憶される
(手順20)。荷重修正計算値の終了を確認し(手順2
1)、YESのときは一学習サイクルの荷重修正が終了
したとみなし、荷重の一括修正を実行する(手順2
2)。これを規格値ε1 以下になった段階で(手順1
5)学習を修了する。
Description
【0001】
【産業上の利用分野】本発明はパターン学習方法に関
し、特にニューラルネット認識手段を有するパターン学
習方法に関する。
し、特にニューラルネット認識手段を有するパターン学
習方法に関する。
【0002】
【従来の技術】図7は従来のパターン学習方法の構成を
示すブロック図である。図7を参照すると、この従来の
パターン学習方法において、スキャナー1は被認識対象
を光学的に走査して映像信号aを出力する。A/D変換
部2は映像信号aを入力しアナログ画像をデジタル化
し、デジタル画像bを出力する。画像メモリ3はデジタ
ル画像bを記憶し、画像データcを出力する。2値化処
理部4は画像データcを入力し、パターン部を“1”、
背景部を“0”に割当て、2値画像dを出力する。パタ
ーン領域検出部5は、2値画像dを入力し、投影を行っ
て認識パターンを切り出し、パターンデータeを作成す
る。パターンデータeは格子分割部6で、分割データf
に変換される。ニューラルネット認識部70は格子分割
データfを1入力パターンデータとして解釈し、学習を
行って計算出力信号gを出力する。認識判定部8は計算
出力信号gの最大値を探索し、その最大値に於けるカテ
ゴリ分類を認識結果とする。学習判定部9はこの認識結
果を規格値以下であることを確認して、すべての学習を
終了する。
示すブロック図である。図7を参照すると、この従来の
パターン学習方法において、スキャナー1は被認識対象
を光学的に走査して映像信号aを出力する。A/D変換
部2は映像信号aを入力しアナログ画像をデジタル化
し、デジタル画像bを出力する。画像メモリ3はデジタ
ル画像bを記憶し、画像データcを出力する。2値化処
理部4は画像データcを入力し、パターン部を“1”、
背景部を“0”に割当て、2値画像dを出力する。パタ
ーン領域検出部5は、2値画像dを入力し、投影を行っ
て認識パターンを切り出し、パターンデータeを作成す
る。パターンデータeは格子分割部6で、分割データf
に変換される。ニューラルネット認識部70は格子分割
データfを1入力パターンデータとして解釈し、学習を
行って計算出力信号gを出力する。認識判定部8は計算
出力信号gの最大値を探索し、その最大値に於けるカテ
ゴリ分類を認識結果とする。学習判定部9はこの認識結
果を規格値以下であることを確認して、すべての学習を
終了する。
【0003】図5は、D.E.RUMELHART等が
PARARELL DISTRIBUTED PROC
ESSING,vol1,MIT Press,198
6,318〜330頁に示しているニューラルネット認
識部70の動作を示す流れ図である。図5を参照する
と、従来のパターン学習方法のニューラルネット認識部
70は、誤差逆伝搬法のみを用いて学習時の荷重、バイ
アス値修正計算を行っている。従って、学習の収束段階
で、学習が停止することがある。また、そのときにでき
た荷重値を任意パターンデータに対しそのまま使用して
認識している。
PARARELL DISTRIBUTED PROC
ESSING,vol1,MIT Press,198
6,318〜330頁に示しているニューラルネット認
識部70の動作を示す流れ図である。図5を参照する
と、従来のパターン学習方法のニューラルネット認識部
70は、誤差逆伝搬法のみを用いて学習時の荷重、バイ
アス値修正計算を行っている。従って、学習の収束段階
で、学習が停止することがある。また、そのときにでき
た荷重値を任意パターンデータに対しそのまま使用して
認識している。
【0004】
【発明が解決しようとする課題】上述した従来のパター
ン学習方法は、単純な誤差逆伝搬法を用いているので、
図6に示す様に学習の停止が起こり易く、学習効率が落
ちる。また、生成された荷重値が適切でないため、パタ
ーンの認識率の向上が望めないので、再度学習のやり直
しをしなければならない。
ン学習方法は、単純な誤差逆伝搬法を用いているので、
図6に示す様に学習の停止が起こり易く、学習効率が落
ちる。また、生成された荷重値が適切でないため、パタ
ーンの認識率の向上が望めないので、再度学習のやり直
しをしなければならない。
【0005】本発明の目的は、荷重修正をする際に学習
サイクルにおける自乗誤差和の符号変化から荷重修正係
数をルールによって変更し、学習の停止を抑制し、高速
な学習方法を提供することにある。
サイクルにおける自乗誤差和の符号変化から荷重修正係
数をルールによって変更し、学習の停止を抑制し、高速
な学習方法を提供することにある。
【0006】
【課題を解決するための手段】本発明のパターン学習方
法は、パターン情報を読み取って認識するパターン学習
方法において、非認識対象を光学的に操作し撮像するス
キャナーと、前記スキャナーから得られる前記非認識対
象の撮像信号をデジタル信号に変換するアナログデジタ
ル変換手段と、前記デジタル信号を記憶し画像データを
出力する画像データ記憶手段と、前記画像データを2値
化し2値画像を出力する2値化手段と、前記2値画像か
ら前記被認識対象の領域を検出する領域検出手段と、検
出された前記被認識対象の領域データからニューラルネ
ット認識入力パターンとなる格子分割データを作成する
格子分割手段と、前記格子分割データをニューラルネッ
ト学習を用いて計算し前記被認識対象を認識するニュー
ラルネット認識手段と、前記ニューラルネット認識手段
の最大値を検出し、そのときのカテゴリを認識結果とす
る認識判定手段とを含み、前記ニューラルネット認識手
段には学習過程計算において第M層の第j番目のニュー
ロンの第k回目の学習サイクルの荷重修正値をΔω(M)
ij(k)とするときの学習則が、O(M-1) j を第M層の
j番目のニューロン出力値とすると、 Δω(M) ij(k+1)=η・δ(M) j ・O(M-1) j +α
・Δω(M) ij(k) 第M層の第j番目のニューロンの第k番目のバイアス修
正量Δθ(M) ij(k)が Δθ(M) ij(k+1)=η・δ(M) j +α・Δθ(M) ij
(k) ここに、δ(M) j =f′(j)・(1−f(j)) f(x)=1/(1+exp(−X)) ηは荷重修正係数、αは弾性係数 とする学習手段を含み、教師データy(j)とするとき
のニューラルネット認識入力データの全パターンに対す
る1サイクルの学習に対する誤差評価関数
法は、パターン情報を読み取って認識するパターン学習
方法において、非認識対象を光学的に操作し撮像するス
キャナーと、前記スキャナーから得られる前記非認識対
象の撮像信号をデジタル信号に変換するアナログデジタ
ル変換手段と、前記デジタル信号を記憶し画像データを
出力する画像データ記憶手段と、前記画像データを2値
化し2値画像を出力する2値化手段と、前記2値画像か
ら前記被認識対象の領域を検出する領域検出手段と、検
出された前記被認識対象の領域データからニューラルネ
ット認識入力パターンとなる格子分割データを作成する
格子分割手段と、前記格子分割データをニューラルネッ
ト学習を用いて計算し前記被認識対象を認識するニュー
ラルネット認識手段と、前記ニューラルネット認識手段
の最大値を検出し、そのときのカテゴリを認識結果とす
る認識判定手段とを含み、前記ニューラルネット認識手
段には学習過程計算において第M層の第j番目のニュー
ロンの第k回目の学習サイクルの荷重修正値をΔω(M)
ij(k)とするときの学習則が、O(M-1) j を第M層の
j番目のニューロン出力値とすると、 Δω(M) ij(k+1)=η・δ(M) j ・O(M-1) j +α
・Δω(M) ij(k) 第M層の第j番目のニューロンの第k番目のバイアス修
正量Δθ(M) ij(k)が Δθ(M) ij(k+1)=η・δ(M) j +α・Δθ(M) ij
(k) ここに、δ(M) j =f′(j)・(1−f(j)) f(x)=1/(1+exp(−X)) ηは荷重修正係数、αは弾性係数 とする学習手段を含み、教師データy(j)とするとき
のニューラルネット認識入力データの全パターンに対す
る1サイクルの学習に対する誤差評価関数
【0007】
【0008】を設定し、規格値ε1 以下になるまで学習
を実行する過程で、ニューラルネット認識入力データp
の全パターン入力後の各々のカテゴリパターンに対し
て、自乗誤差和の変化量ΔEp =Ep (k+1)−Ep
(k)の符号変化に基づき、 if ΔEp > 0 THEN η=η×φ α=α if ΔEp < 0 THEN η=η×β α=0 ここに、β<1,φ>1, ηmin <η<ηmax φ、βは学習効率化係数、ηは荷重修正係数、αは慣性
係数 なる学習ルールを用いて荷重の一括修正を実行すること
を特徴とする。
を実行する過程で、ニューラルネット認識入力データp
の全パターン入力後の各々のカテゴリパターンに対し
て、自乗誤差和の変化量ΔEp =Ep (k+1)−Ep
(k)の符号変化に基づき、 if ΔEp > 0 THEN η=η×φ α=α if ΔEp < 0 THEN η=η×β α=0 ここに、β<1,φ>1, ηmin <η<ηmax φ、βは学習効率化係数、ηは荷重修正係数、αは慣性
係数 なる学習ルールを用いて荷重の一括修正を実行すること
を特徴とする。
【0009】
【実施例】次に、本発明について図面を参照して説明す
る。本発明の一実施例をブロックで示す図1を参照する
と、この実施例のパターン学習方法において、スキャナ
ー1は被認識対象を光学的に走査して映像信号aを出力
する。A/D変換部2は映像信号aを入力しアナログ画
像をデジタル化し、デジタル画像bを出力する。画像メ
モリ3はデジタル画像bを記憶し、画像データcを出力
する。2値化処理部4は画像データcを入力し、パター
ン部を“1”、背景部を“0”に割当て、2値画像dを
出力する。パターン領域検出部5では、2値画像dを入
力し、投影を行って認識パターンを切り出し、パターン
データeを作成する。パターンデータeは格子分割部6
で、分割データfに変換される。ニューラルネット認識
部7は格子分割データfを1入力パターンデータとして
解釈し、学習を行って計算出力信号gを出力する。認識
判定部8は計算出力信号gの最大値を探索し、その最大
値に於けるカテゴリ分類を認識結果とする。学習判定部
9はこの認識結果を規格値以下であることを確認して、
すべての学習を終了する。
る。本発明の一実施例をブロックで示す図1を参照する
と、この実施例のパターン学習方法において、スキャナ
ー1は被認識対象を光学的に走査して映像信号aを出力
する。A/D変換部2は映像信号aを入力しアナログ画
像をデジタル化し、デジタル画像bを出力する。画像メ
モリ3はデジタル画像bを記憶し、画像データcを出力
する。2値化処理部4は画像データcを入力し、パター
ン部を“1”、背景部を“0”に割当て、2値画像dを
出力する。パターン領域検出部5では、2値画像dを入
力し、投影を行って認識パターンを切り出し、パターン
データeを作成する。パターンデータeは格子分割部6
で、分割データfに変換される。ニューラルネット認識
部7は格子分割データfを1入力パターンデータとして
解釈し、学習を行って計算出力信号gを出力する。認識
判定部8は計算出力信号gの最大値を探索し、その最大
値に於けるカテゴリ分類を認識結果とする。学習判定部
9はこの認識結果を規格値以下であることを確認して、
すべての学習を終了する。
【0010】ここで従来のパターン学習方法との相違は
ニューラルネット認識部7にある。図2はこの実施例の
ニューラルネット認識部7の学習処理を示す流れ図、図
3は図2に示されるニューラルネット認識部7の処理の
模式図、図4はこの実施例の学習修正方法を用いた場合
の自乗誤差和と荷重空間学習進度との関係図である。図
2,図3および図4を図1に併せて参照すると、まず、
格子分割データfをニューラルネット認識部7に入力し
(手順10)、教師データyj を設定する(手順1
1)。次に、ニューラルネット出力層ユニット上のニュ
ーロン出力値Oj を計算し(手順12)、全パターン入
力の自乗誤差和を次式により計算する(手順13)。
ニューラルネット認識部7にある。図2はこの実施例の
ニューラルネット認識部7の学習処理を示す流れ図、図
3は図2に示されるニューラルネット認識部7の処理の
模式図、図4はこの実施例の学習修正方法を用いた場合
の自乗誤差和と荷重空間学習進度との関係図である。図
2,図3および図4を図1に併せて参照すると、まず、
格子分割データfをニューラルネット認識部7に入力し
(手順10)、教師データyj を設定する(手順1
1)。次に、ニューラルネット出力層ユニット上のニュ
ーロン出力値Oj を計算し(手順12)、全パターン入
力の自乗誤差和を次式により計算する(手順13)。
【0011】
【0012】図3に示すようにニューラルネット認識部
7のニューラルネットは階層型であるので、規格値εl
の条件が満たされるまで各々の階層間荷重Δω
(M) ij(k)およびバイアス値修正量Δθ(M) ij(k)
は、次式の荷重修正式で与えられる(手順19)。
7のニューラルネットは階層型であるので、規格値εl
の条件が満たされるまで各々の階層間荷重Δω
(M) ij(k)およびバイアス値修正量Δθ(M) ij(k)
は、次式の荷重修正式で与えられる(手順19)。
【0013】Δω(M) ij(k+1)=η・δ(M) j ・O
(M-1) j +α・Δω(M) ij(k) Δθ(M) ij(k+1)=η・δ(M) j +α・Δθ(M) ij
(k) ここで、ηは荷重修正係数、δ(M) j は第M番目の層に
於けるj番目のニューロンの修正値、αは慣性係数、Δ
θ(M) j(k) は第M番目の層の第k回目の学習サイクルに
於けるj番目のニューロンのバイアス値、Δωij(k) は
荷重修正量を示す。さらに、ここで得た階層間荷重Δω
(M) ij(k)およびバイアス値修正量Δθ(M) ij(k)
をメモリに記憶させる(手順20)。荷重修正式および
図4から明かなように、ΔEpの符号変化が学習進度に
対応し荷重空間での収束方向を定め、同じニューラルネ
ット入力パタンに対して、常に‖Δω1 ‖>‖Δω2 ‖
となるので、最小点(学習の収束位置)への到達、すな
わち学習の高速化と探索効率の向上が同時に実行される
ことになる。以上述べた荷重修正計算値の終了を確認し
(手順21)、YESのときは一学習サイクルの荷重修
正が終了したとみなし、荷重の一括修正を実行する(手
順22)。これを規格値ε1 以下になった段階で(手順
15)、ニューラルネット出力計算結果を認識判定部8
に送り、その結果の最大値を認識結果カテゴリとする。
更に学習終了判定部9で学習の終了または継続を確認し
て学習を修了する。
(M-1) j +α・Δω(M) ij(k) Δθ(M) ij(k+1)=η・δ(M) j +α・Δθ(M) ij
(k) ここで、ηは荷重修正係数、δ(M) j は第M番目の層に
於けるj番目のニューロンの修正値、αは慣性係数、Δ
θ(M) j(k) は第M番目の層の第k回目の学習サイクルに
於けるj番目のニューロンのバイアス値、Δωij(k) は
荷重修正量を示す。さらに、ここで得た階層間荷重Δω
(M) ij(k)およびバイアス値修正量Δθ(M) ij(k)
をメモリに記憶させる(手順20)。荷重修正式および
図4から明かなように、ΔEpの符号変化が学習進度に
対応し荷重空間での収束方向を定め、同じニューラルネ
ット入力パタンに対して、常に‖Δω1 ‖>‖Δω2 ‖
となるので、最小点(学習の収束位置)への到達、すな
わち学習の高速化と探索効率の向上が同時に実行される
ことになる。以上述べた荷重修正計算値の終了を確認し
(手順21)、YESのときは一学習サイクルの荷重修
正が終了したとみなし、荷重の一括修正を実行する(手
順22)。これを規格値ε1 以下になった段階で(手順
15)、ニューラルネット出力計算結果を認識判定部8
に送り、その結果の最大値を認識結果カテゴリとする。
更に学習終了判定部9で学習の終了または継続を確認し
て学習を修了する。
【0014】
【発明の効果】以上説明したように、本発明によれば、
階層型ニューラルネットの全入力パターン入力後に各々
のカテゴリのニューラルネット出力値と教師信号との差
である自乗誤差和を計算し、次の学習サイクルにおける
自乗誤差和との差分の符号変化から、学習習熟度を推定
しながら荷重修正効率を変化させることができるので、
誤差逆伝搬法のみで学習させたときに生じやすい学習の
停止を抑制し、学習の高速化が計れる。
階層型ニューラルネットの全入力パターン入力後に各々
のカテゴリのニューラルネット出力値と教師信号との差
である自乗誤差和を計算し、次の学習サイクルにおける
自乗誤差和との差分の符号変化から、学習習熟度を推定
しながら荷重修正効率を変化させることができるので、
誤差逆伝搬法のみで学習させたときに生じやすい学習の
停止を抑制し、学習の高速化が計れる。
【図1】本発明の一実施例の構成を示すブロック図であ
る。
る。
【図2】この実施例のニューラルネット認識部の動作を
示す流れ図である。
示す流れ図である。
【図3】ニューラルネット認識部の処理過程の模式図で
ある。
ある。
【図4】この実施例の学習修正方式を用いた場合の自乗
誤差和と学習回数との関係図である。
誤差和と学習回数との関係図である。
【図5】従来例のパターン学習方法のニューラルネット
認識部の動作を示す流れ図である。
認識部の動作を示す流れ図である。
【図6】従来の荷重修正式を用いた時に生じやすい学習
の停止をした場合の自乗誤差和と学習回数との関係図で
ある。
の停止をした場合の自乗誤差和と学習回数との関係図で
ある。
【図7】従来例の構成を示すブロック図である。
1 スキャナー 2 A/D変換部 3 画像メモリ 4 2値化処理部 5 パターン領域検出部 6 格子分割部 7 ニューラルネット認識部 8 認識判定部 9 学習終了判定部 30 画像処理ユニット
Claims (1)
- 【請求項1】 パターン情報を読み取って認識するパタ
ーン学習方法において、非認識対象を光学的に操作し撮
像するスキャナーと、前記スキャナーから得られる前記
非認識対象の撮像信号をデジタル信号に変換するアナロ
グデジタル変換手段と、前記デジタル信号を記憶し画像
データを出力する画像データ記憶手段と、前記画像デー
タを2値化し2値画像を出力する2値化手段と、前記2
値画像から前記被認識対象の領域を検出する領域検出手
段と、検出された前記被認識対象の領域データからニュ
ーラルネット認識入力パターンとなる格子分割データを
作成する格子分割手段と、前記格子分割データをニュー
ラルネット学習を用いて計算し前記被認識対象を認識す
るニューラルネット認識手段と、前記ニューラルネット
認識手段の最大値を検出し、そのときのカテゴリを認識
結果とする認識判定手段とを含み、前記ニューラルネッ
ト認識手段には学習過程計算において第M層の第j番目
のニューロンの第k回目の学習サイクルの荷重修正値を
Δω(M) ij(k)とするときの学習則が、O(M-1) j を
第M層のj番目のニューロン出力値とすると、 Δω(M) ij(k+1)=η・δ(M) j ・O(M-1) j +α
・Δω(M) ij(k) 第M層の第j番目のニューロンの第k番目のバイアス修
正量Δθ(M) ij(k)が Δθ(M) ij(k+1)=η・δ(M) j +α・Δθ(M) ij
(k) ここに、δ(M) j =f′(j)・(1−f(j)) f(x)=1/(1+exp(−X)) ηは荷重修正係数、αは弾性係数 とする学習手段を含み、教師データy(j)とするとき
のニューラルネット認識入力データの全パターンに対す
る1サイクルの学習に対する誤差評価関数 を設定し、規格値ε1 以下になるまで学習を実行する過
程で、ニューラルネット認識入力データpの全パターン
入力後の各々のカテゴリパターンに対して、自乗誤差和
の変化量ΔEp =Ep (k+1)−Ep (k)の符号変
化に基づき、 if ΔEp > 0 THEN η=η×φ α=α if ΔEp < 0 THEN η=η×β α=0 ここに、β<1,φ>1, ηmin <η<ηmax φ、βは学習効率化係数、ηは荷重修正係数、αは慣性
係数 なる学習ルールを用いて荷重の一括修正を実行すること
を特徴とするパターン学習方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP6263739A JP2773658B2 (ja) | 1994-10-27 | 1994-10-27 | パターン学習方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP6263739A JP2773658B2 (ja) | 1994-10-27 | 1994-10-27 | パターン学習方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH08123779A true JPH08123779A (ja) | 1996-05-17 |
| JP2773658B2 JP2773658B2 (ja) | 1998-07-09 |
Family
ID=17393623
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP6263739A Expired - Lifetime JP2773658B2 (ja) | 1994-10-27 | 1994-10-27 | パターン学習方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2773658B2 (ja) |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03186986A (ja) * | 1989-12-15 | 1991-08-14 | Sharp Corp | ニューラルネットを用いた文字認識装置 |
-
1994
- 1994-10-27 JP JP6263739A patent/JP2773658B2/ja not_active Expired - Lifetime
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03186986A (ja) * | 1989-12-15 | 1991-08-14 | Sharp Corp | ニューラルネットを用いた文字認識装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2773658B2 (ja) | 1998-07-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3088171B2 (ja) | 自己組織型パタ−ン分類システム及び分類方法 | |
| CN109977918A (zh) | 一种基于无监督域适应的目标检测定位优化方法 | |
| JPH0573687A (ja) | 自動分類方法 | |
| JP7028322B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
| JPH10261089A (ja) | 図形位置検出方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体 | |
| CN114594443B (zh) | 一种基于自注意力机制和预测递归神经网络的气象雷达回波外推方法及系统 | |
| JP2765335B2 (ja) | 隆線方向パターン平滑化方法およびその装置 | |
| CN117132997A (zh) | 一种基于多头注意力机制和知识图谱的手写表格识别方法 | |
| KR102177728B1 (ko) | 합성곱 신경망을 활용한 데이터 확장방법 및 장치 | |
| CN113343989A (zh) | 一种基于前景选择域自适应的目标检测方法及系统 | |
| JPH08123779A (ja) | パターン学習方法 | |
| CN117953266A (zh) | 一种基于可形变卷积的航拍垃圾检测方法 | |
| CN113673271B (zh) | 一种基于宠物检测的双层标注计算二级损失的方法 | |
| JPH09146907A (ja) | パターン学習方法 | |
| JP2950023B2 (ja) | パターン認識辞書生成装置およびパターン認識装置 | |
| JP2778194B2 (ja) | パターン認識方法および装置 | |
| JP3248965B2 (ja) | 2値化しきい値決定装置 | |
| JPH07175776A (ja) | パターン学習認識装置 | |
| JPH07271916A (ja) | 学習パターン生成装置及びこれを用いた文字認識装置 | |
| Zhang et al. | Fish image instance segmentation: an enhanced hybrid task cascade approach | |
| CN116012299A (zh) | 一种基于目标识别的复合绝缘子憎水性等级检测方法 | |
| JP2967047B2 (ja) | パターン認識方法 | |
| JP2682203B2 (ja) | 文字認識方法 | |
| CN119169489B (zh) | 一种绝缘子缺陷识别方法 | |
| JP3109476B2 (ja) | 候補数制御機能付き文字認識装置及び方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19980324 |