JPH0765165A - ニューラル・ネットワークによるパターン認識方法及び装置 - Google Patents
ニューラル・ネットワークによるパターン認識方法及び装置Info
- Publication number
- JPH0765165A JPH0765165A JP5211386A JP21138693A JPH0765165A JP H0765165 A JPH0765165 A JP H0765165A JP 5211386 A JP5211386 A JP 5211386A JP 21138693 A JP21138693 A JP 21138693A JP H0765165 A JPH0765165 A JP H0765165A
- Authority
- JP
- Japan
- Prior art keywords
- output
- neural network
- likelihood
- pattern
- pattern recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】 ニューラル・ネットワークを使用したパター
ン認識装置の認識率を向上させること。 【構成】 ニューラル・ネットワークの出力の区間 [0,
1] をM 等分(M は2以上の整数)し, i番目の区間 [(i-
1)/M, i/M] に含まれる正解・不正解パターンデータの
個数あるいは頻度を、各々μ1i, μ0i とする(但し、i
=1・・M)。このとき未知のパターンデータに対して, こ
のネットワークが i番目の区間に含まれる出力を与えた
場合、このパターンがこのカテゴリーである尤度P1iを
式 : P1i= (μ1i + 1)/(μ1i + μ0i + 2) と出
力するよう尤度変換テーブルとして記憶する。そして、
尤度変換器により、i番目の区間 [(i-1)/M, i/M] に含
まれる値が、ニューラル・ネットワークから出力された
とき、尤度変換器は、これを入力して、言わば正規化さ
れた尤度であるP1iを出力する。
ン認識装置の認識率を向上させること。 【構成】 ニューラル・ネットワークの出力の区間 [0,
1] をM 等分(M は2以上の整数)し, i番目の区間 [(i-
1)/M, i/M] に含まれる正解・不正解パターンデータの
個数あるいは頻度を、各々μ1i, μ0i とする(但し、i
=1・・M)。このとき未知のパターンデータに対して, こ
のネットワークが i番目の区間に含まれる出力を与えた
場合、このパターンがこのカテゴリーである尤度P1iを
式 : P1i= (μ1i + 1)/(μ1i + μ0i + 2) と出
力するよう尤度変換テーブルとして記憶する。そして、
尤度変換器により、i番目の区間 [(i-1)/M, i/M] に含
まれる値が、ニューラル・ネットワークから出力された
とき、尤度変換器は、これを入力して、言わば正規化さ
れた尤度であるP1iを出力する。
Description
【0001】
【産業上の利用分野】この発明は、一般的には、ニュー
ラル・ネットワークに関し、より詳しくは、ニューラル
・ネットワークを使用するパターン認識の改良に関す
る。
ラル・ネットワークに関し、より詳しくは、ニューラル
・ネットワークを使用するパターン認識の改良に関す
る。
【0002】
【従来の技術】従来、ニューラルネットワ−クをパター
ン認識に適用すると、識別するカテゴリー・セットがあ
まり大きくない場合には (例えば 50カテゴリー程
度)、実現可能な学習プロセス及び時間で、精度の高い
パターン識別機能が、単一のネットワークで実現出来る
ことが知られている(例えば、I.Guyon, P. Albrecht,
Y. Le Cun, J. Denker, and W. Hubbard: "Design of a
Neural Network CharacterRecognizer for a Touch Te
rminal," Pattern Recognition, Vol.24, pp.105-119,
1991を参照)。しかしこの方法は、例えば日本語の手書
き類似文字識別のように数百カテゴリー以上も識別すべ
きパターンがある系においては、実用に耐えるパターン
識別機能を実現することは困難である。
ン認識に適用すると、識別するカテゴリー・セットがあ
まり大きくない場合には (例えば 50カテゴリー程
度)、実現可能な学習プロセス及び時間で、精度の高い
パターン識別機能が、単一のネットワークで実現出来る
ことが知られている(例えば、I.Guyon, P. Albrecht,
Y. Le Cun, J. Denker, and W. Hubbard: "Design of a
Neural Network CharacterRecognizer for a Touch Te
rminal," Pattern Recognition, Vol.24, pp.105-119,
1991を参照)。しかしこの方法は、例えば日本語の手書
き類似文字識別のように数百カテゴリー以上も識別すべ
きパターンがある系においては、実用に耐えるパターン
識別機能を実現することは困難である。
【0003】そこで、カテゴリー数の多いパターン識別
で、従来から取られてきた方法は、全カテゴリーをまず
いくつかのクラスに大分類した後、クラスごとに別のニ
ューラルネットワークを用い詳細識別に用いる方法であ
る(小島良宏, 香田敏行, 高木英行, 〆木泰治: "ニュ
ーラルネットワークの汎化性に関する一検討," 199
0年電子情報通信学会全国大会予稿集 6-5; 林 勲, "ニ
ューラルネットワークとファジィ制御との融合手法,"
電子技術, 1992-1, pp.17;岩田 彰, 當麻孝志,松尾啓
志, 鈴村宣夫: "大規模4層ニューラルネット'CombNE
T'," 電子情報通信学会論文誌 D-II Vol.73-D-II, pp.1
261-1267, 1991-20)。これは、大分類で選ばれたネッ
トワークの中で最大の出力を与えるカテゴリーを正解候
補とするものである。 しかしこの方法の問題点は、ネ
ットワークの学習が限られた数の学習データで行われる
ため、必然的に各ネットワークに学習の程度の違いを生
じ、その結果複数のネットワークで単純に出力の大きさ
で識別結果を判定することが困難であった。
で、従来から取られてきた方法は、全カテゴリーをまず
いくつかのクラスに大分類した後、クラスごとに別のニ
ューラルネットワークを用い詳細識別に用いる方法であ
る(小島良宏, 香田敏行, 高木英行, 〆木泰治: "ニュ
ーラルネットワークの汎化性に関する一検討," 199
0年電子情報通信学会全国大会予稿集 6-5; 林 勲, "ニ
ューラルネットワークとファジィ制御との融合手法,"
電子技術, 1992-1, pp.17;岩田 彰, 當麻孝志,松尾啓
志, 鈴村宣夫: "大規模4層ニューラルネット'CombNE
T'," 電子情報通信学会論文誌 D-II Vol.73-D-II, pp.1
261-1267, 1991-20)。これは、大分類で選ばれたネッ
トワークの中で最大の出力を与えるカテゴリーを正解候
補とするものである。 しかしこの方法の問題点は、ネ
ットワークの学習が限られた数の学習データで行われる
ため、必然的に各ネットワークに学習の程度の違いを生
じ、その結果複数のネットワークで単純に出力の大きさ
で識別結果を判定することが困難であった。
【0004】さらに、ニューラル・ネットワークを使用
してパターン認識を行うことに関連する刊行物として次
のようなものがある。すなわち、
してパターン認識を行うことに関連する刊行物として次
のようなものがある。すなわち、
【0005】特開平3−67381号公報は、イメージ
・スキャナから読み込まれたような2次元のドットマト
リックスで構成される手書きや印刷の文字パターンの認
識に適した文字認識方式に関し、イメージ・スキャナか
ら読み込まれた手書きや印刷の文字パターンから、特徴
抽出方法によって特徴を抽出し、その結果を特徴抽出面
の各細胞から出力し、その情報を階層構造のニューラル
ネットワークの入力層の各ニューロンに入力し、以てニ
ューラルネットワーク中に信号を伝搬させ、ニューラル
ネットワークの各ニューロンに認識の結果を出力させ、
正しい認識結果が出るまで、パックプロパゲーション学
習則に従って各ニューロン間の結合の強度を変化させる
ことを開示する。
・スキャナから読み込まれたような2次元のドットマト
リックスで構成される手書きや印刷の文字パターンの認
識に適した文字認識方式に関し、イメージ・スキャナか
ら読み込まれた手書きや印刷の文字パターンから、特徴
抽出方法によって特徴を抽出し、その結果を特徴抽出面
の各細胞から出力し、その情報を階層構造のニューラル
ネットワークの入力層の各ニューロンに入力し、以てニ
ューラルネットワーク中に信号を伝搬させ、ニューラル
ネットワークの各ニューロンに認識の結果を出力させ、
正しい認識結果が出るまで、パックプロパゲーション学
習則に従って各ニューロン間の結合の強度を変化させる
ことを開示する。
【0006】特開平3−88090号公報は、入力文字
パターンと複数の文字パターン候補との類似度から入力
パターンの認識結果として確信度の高い複数の文字パタ
ーン候補を判定する文字認識装置において、各文字パタ
ーン候補を類似文字群のグループ毎に複数分類し、各類
似度から、各グループ毎に、本来類似度が最大となって
しかるべき文字パターン候補が最終的な文字候補の1つ
として得られるように学習を行い、各グループ毎に確信
度の高い複数の文字パターン候補をそれぞれ判定する複
数のサブニューラルネットと、前記各類似度から、本来
類似度が最大となってしかるべき文字パターン候補を含
む前記サブニューラルネットの判定結果が前記文字認識
候補の1つとなるよう学習を行い、最も確信度の高い文
字パターン候補を含むサブニューラルネットを判定する
ニューラルネットと、前記サブニューラルネットの判定
結果から、最終的な文字認識候補として確信度の高い複
数の文字パターン候補を判定する判定手段を設けること
を開示する。
パターンと複数の文字パターン候補との類似度から入力
パターンの認識結果として確信度の高い複数の文字パタ
ーン候補を判定する文字認識装置において、各文字パタ
ーン候補を類似文字群のグループ毎に複数分類し、各類
似度から、各グループ毎に、本来類似度が最大となって
しかるべき文字パターン候補が最終的な文字候補の1つ
として得られるように学習を行い、各グループ毎に確信
度の高い複数の文字パターン候補をそれぞれ判定する複
数のサブニューラルネットと、前記各類似度から、本来
類似度が最大となってしかるべき文字パターン候補を含
む前記サブニューラルネットの判定結果が前記文字認識
候補の1つとなるよう学習を行い、最も確信度の高い文
字パターン候補を含むサブニューラルネットを判定する
ニューラルネットと、前記サブニューラルネットの判定
結果から、最終的な文字認識候補として確信度の高い複
数の文字パターン候補を判定する判定手段を設けること
を開示する。
【0007】特開平4−42381号公報は、紙面上の
文字を認識する文字認識装置において、文字の分割され
た特徴値を抽出する特徴抽出手段と、予め文字をクラス
に分類しクラスの基準特徴値となる特徴値を格納した分
類格納手段と、特徴抽出手段の出力に基づき文字パター
ンの属するクラスを決定する分類手段と、クラスに分類
された文字を出力層ノードに割り当てて前記特徴抽出手
段からの特徴値に基づいて整合の度合いの大きい出力層
ノードの活性度により文字を認識するニューラル・ネッ
トワーク識別手段と、分類手段の出力と前記ニューラル
・ネットワーク識別手段の結果に基づいて文字パターン
の文字を判定し、判定した文字の情報を出力する判定手
段を設けることを開示する。
文字を認識する文字認識装置において、文字の分割され
た特徴値を抽出する特徴抽出手段と、予め文字をクラス
に分類しクラスの基準特徴値となる特徴値を格納した分
類格納手段と、特徴抽出手段の出力に基づき文字パター
ンの属するクラスを決定する分類手段と、クラスに分類
された文字を出力層ノードに割り当てて前記特徴抽出手
段からの特徴値に基づいて整合の度合いの大きい出力層
ノードの活性度により文字を認識するニューラル・ネッ
トワーク識別手段と、分類手段の出力と前記ニューラル
・ネットワーク識別手段の結果に基づいて文字パターン
の文字を判定し、判定した文字の情報を出力する判定手
段を設けることを開示する。
【0008】しかし、上記どの刊行物も、複数のクラス
毎に設けられた個別のニューラル・ネットワークからの
出力を以て総合的な判定基準を与える方法は教示しな
い。
毎に設けられた個別のニューラル・ネットワークからの
出力を以て総合的な判定基準を与える方法は教示しな
い。
【0009】
【発明が解決しようとする課題】この発明の目的は、ク
ラスごとに別のニューラル・ネットワークを用いるパタ
ーン認識システムにおいて、パターン認識の認識率を向
上させることにある。
ラスごとに別のニューラル・ネットワークを用いるパタ
ーン認識システムにおいて、パターン認識の認識率を向
上させることにある。
【0010】この発明の更なる目的は、クラスごとに別
のニューラル・ネットワークを用いるシステムにおい
て、クラスごとの個別のニューラル・ネットワーク間の
出力のばらつきを解消し、個別のニューラル・ネットワ
ークの出力の総合的(統計的)処理を可能ならしめる手
段を提供することにある。
のニューラル・ネットワークを用いるシステムにおい
て、クラスごとの個別のニューラル・ネットワーク間の
出力のばらつきを解消し、個別のニューラル・ネットワ
ークの出力の総合的(統計的)処理を可能ならしめる手
段を提供することにある。
【0011】
【課題を解決するための手段】上記目的は、クラスごと
の個別のニューラル・ネットワークの出力を、本発明に
従い、尤度変換することによって達成される。
の個別のニューラル・ネットワークの出力を、本発明に
従い、尤度変換することによって達成される。
【0012】すなわち、先ず、各パターンのクラスごと
にそれぞれ別のフィード・フォワード型ネットワークを
設け、各ネットワークの出力層は各カテゴリーが "正解
であること" に対応した出力を与えるよう学習データで
学習させる。例えば、正解に'1' 不正解に '0' なる教
師信号を与えることで学習させる。
にそれぞれ別のフィード・フォワード型ネットワークを
設け、各ネットワークの出力層は各カテゴリーが "正解
であること" に対応した出力を与えるよう学習データで
学習させる。例えば、正解に'1' 不正解に '0' なる教
師信号を与えることで学習させる。
【0013】そうして、各ニューラル・ネットワークの
出力を尤度に変換するため、図1に示すように出力層の
後段に尤度変換器を接続し、学習が終わったネットワー
クに対して、各尤度変換器が各カテゴリーごとの正解の
尤度を出力するよう調節する。
出力を尤度に変換するため、図1に示すように出力層の
後段に尤度変換器を接続し、学習が終わったネットワー
クに対して、各尤度変換器が各カテゴリーごとの正解の
尤度を出力するよう調節する。
【0014】調節の方法の1つの例は、次のようなもの
である。すなわち、各カテゴリーごとに、それぞれ同数
の正解及び不正解の学習パターン・データをネットワー
クに与え、出力分布のヒストグラムを取る。このとき、
出力は、パターン・データに応じて、0から1の間の値
をとる。ここで区間 [0, 1] をM 等分(M は2以上の整
数)し, i番目の区間 [(i-1)/M, i/M] に含まれる正解・
不正解パターンデータの個数あるいは頻度を、各々μ1
i, μ0i とする(但し、i=1・・M)。このとき未知のパタ
ーンデータに対して, このネットワークが i番目の区間
に含まれる出力を与えた場合、このパターンがこのカテ
ゴリーである尤度P1iを式 : P1i = (μ1i + 1)/
(μ1i + μ0i + 2) と出力するよう尤度変換テーブ
ルとして記憶する。そして、尤度変換器により、i番目
の区間 [(i-1)/M, i/M] に含まれる値が、ニューラル・
ネットワークから出力されたとき、尤度変換器は、これ
を入力して、言わば正規化された尤度であるP1iを出力
する。
である。すなわち、各カテゴリーごとに、それぞれ同数
の正解及び不正解の学習パターン・データをネットワー
クに与え、出力分布のヒストグラムを取る。このとき、
出力は、パターン・データに応じて、0から1の間の値
をとる。ここで区間 [0, 1] をM 等分(M は2以上の整
数)し, i番目の区間 [(i-1)/M, i/M] に含まれる正解・
不正解パターンデータの個数あるいは頻度を、各々μ1
i, μ0i とする(但し、i=1・・M)。このとき未知のパタ
ーンデータに対して, このネットワークが i番目の区間
に含まれる出力を与えた場合、このパターンがこのカテ
ゴリーである尤度P1iを式 : P1i = (μ1i + 1)/
(μ1i + μ0i + 2) と出力するよう尤度変換テーブ
ルとして記憶する。そして、尤度変換器により、i番目
の区間 [(i-1)/M, i/M] に含まれる値が、ニューラル・
ネットワークから出力されたとき、尤度変換器は、これ
を入力して、言わば正規化された尤度であるP1iを出力
する。
【0015】このような尤度変換器の介在によって、各
ネットワークが尤度を出力するように調節出来たため、
ネットワークの学習のばらつきが補正され、各ネットワ
ークの出力が相互に比較出来るようになる。すなわち最
大の尤度を与えるカテゴリーが、最も確からしい候補と
判定出来る。
ネットワークが尤度を出力するように調節出来たため、
ネットワークの学習のばらつきが補正され、各ネットワ
ークの出力が相互に比較出来るようになる。すなわち最
大の尤度を与えるカテゴリーが、最も確からしい候補と
判定出来る。
【0016】
【実施例】本発明をオンライン日本語手書き文字の類似
文字識別に適用した例を、以下に述べる。図1のブロッ
ク図のシステム構成に示すように、前段でパターン・マ
ッチングによる大分類を行った後、後段に本発明の尤度
変換器を持ったニューラルネットワーク群で正解文字候
補を決定する。
文字識別に適用した例を、以下に述べる。図1のブロッ
ク図のシステム構成に示すように、前段でパターン・マ
ッチングによる大分類を行った後、後段に本発明の尤度
変換器を持ったニューラルネットワーク群で正解文字候
補を決定する。
【0017】図1において、ブロック102では、タブ
レットを使用して、ストローク・データをペン入力す
る。
レットを使用して、ストローク・データをペン入力す
る。
【0018】次に、ブロック104では、タブレットよ
り入力されたデータ (ストローク位置 X, Yの時系列デ
ータ) は、特願平3−327680号の明細書に述べら
れているように、各ストローク毎, 位置(P)/方向(D)/長
さ(L)をコード化し、予め学習データによって文字カテ
ゴリー毎・筆跡画数ごとに収集された学習デ−タに対し
て (P)/(D)/(L) のすべてについて論理 OR をとった結
果と比較され、以て、入力データと合致しないカテゴリ
ーを、候補カテゴリーより落とす。この処理をここで
は、PDLフィルターと呼ぶ.手書きの多様なバリエー
ションに対応するため,学習デ−タは,100人程度の
書き手によって書かれた文字サンプルが,全文字に必要
である.ここでは以降、便宜上学習データは、各文字カ
テゴリ−ごと100サンプルあるものとする。
り入力されたデータ (ストローク位置 X, Yの時系列デ
ータ) は、特願平3−327680号の明細書に述べら
れているように、各ストローク毎, 位置(P)/方向(D)/長
さ(L)をコード化し、予め学習データによって文字カテ
ゴリー毎・筆跡画数ごとに収集された学習デ−タに対し
て (P)/(D)/(L) のすべてについて論理 OR をとった結
果と比較され、以て、入力データと合致しないカテゴリ
ーを、候補カテゴリーより落とす。この処理をここで
は、PDLフィルターと呼ぶ.手書きの多様なバリエー
ションに対応するため,学習デ−タは,100人程度の
書き手によって書かれた文字サンプルが,全文字に必要
である.ここでは以降、便宜上学習データは、各文字カ
テゴリ−ごと100サンプルあるものとする。
【0019】次に、ブロック106では、入力データ
は、6点等距離/ストロークに再サンプリングされ、予
め学習データによってカテゴリー毎・筆跡画数ごとに、
同じく6点等距離/ストロークにサンプリングしその平
均値を取って作成されたテンプレート108と比較され
る( 一般に、同じ文字カテゴリーでも筆跡画数や筆順
の変動によって、それぞれ別のテンプレートを形成する
)。この時,全文字カテゴリーのテンプレートと比較
はせず,上記PDLフィルタ−で候補に残ったものとの
距離を下記の式により求める。
は、6点等距離/ストロークに再サンプリングされ、予
め学習データによってカテゴリー毎・筆跡画数ごとに、
同じく6点等距離/ストロークにサンプリングしその平
均値を取って作成されたテンプレート108と比較され
る( 一般に、同じ文字カテゴリーでも筆跡画数や筆順
の変動によって、それぞれ別のテンプレートを形成する
)。この時,全文字カテゴリーのテンプレートと比較
はせず,上記PDLフィルタ−で候補に残ったものとの
距離を下記の式により求める。
【0020】
【数1】 ここで、 Dxt : 入力データ x と テンプレート t との距
離、 dxtij : 入力データ x と テンプレート t の i 番目
ストローク j番目のサンプル点の距離、 n : 入力データのストローク数
離、 dxtij : 入力データ x と テンプレート t の i 番目
ストローク j番目のサンプル点の距離、 n : 入力データのストローク数
【0021】この距離を各テンプレートのついて距離の
短い順に並べ Dx1, Dx2, ・ ・,Dxi, ・ ・ とする。こ
こで正規化距離 Δxi (i=1, 2 ..)として、
短い順に並べ Dx1, Dx2, ・ ・,Dxi, ・ ・ とする。こ
こで正規化距離 Δxi (i=1, 2 ..)として、
【数2】Δxi = (Dxi − Dx1)/ Dx1,
【0022】とする。この i 番目の候補に対する認識
の正解確率 Pxi として、
の正解確率 Pxi として、
【数3】Pxi = F(Δxi )
【0023】F(x) は文字カテゴリーによらないxの
単調減少関数である。各文字パターンは、十分多数のサ
ンプルを行えば、特徴空間内で正規分布すると考えられ
るから、今パターン sの分布は、
単調減少関数である。各文字パターンは、十分多数のサ
ンプルを行えば、特徴空間内で正規分布すると考えられ
るから、今パターン sの分布は、
【数4】
【0024】但し、σs は分散で、特徴空間の座標系
は、パターンsの分布の中心を便宜上原点としている。
は、パターンsの分布の中心を便宜上原点としている。
【0025】パターンsに特徴空間で近い所に分布する
ため、sと誤認識されやすいパターンfの分布は、
ため、sと誤認識されやすいパターンfの分布は、
【数5】
【0026】但し、σf はパターンfの分散で、パター
ンfの分布の中心をxoとしている。この場合、ある入
力パターンの特徴量が x で与えられたときこのパター
ンがs である正解確率F(x)は、
ンfの分布の中心をxoとしている。この場合、ある入
力パターンの特徴量が x で与えられたときこのパター
ンがs である正解確率F(x)は、
【数6】F(x) = Ds /(Ds + Df)と、与えられ
る。
る。
【0027】実際のパターン認識装置では、F(x)を、
【数7】
【0028】で近似し、係数 A, B は学習データから
実験的に定めることができる。パターン認識部によって
カテゴリーは、正規化距離に対して一定の閾値 Δth 以
内のものだけ候補として残される。この結果、図1に示
すように、ブロック106から、次の類似文字識別詳細
部112に、これらの候補カテゴリーが出力され、最終
段の候補文字・正解確率判定部116に、正解確率が出
力される。
実験的に定めることができる。パターン認識部によって
カテゴリーは、正規化距離に対して一定の閾値 Δth 以
内のものだけ候補として残される。この結果、図1に示
すように、ブロック106から、次の類似文字識別詳細
部112に、これらの候補カテゴリーが出力され、最終
段の候補文字・正解確率判定部116に、正解確率が出
力される。
【0029】次に、ニューラル・ネットワークによる類
似文字識別について説明する。ニューラル・ネットワー
クによる類似文字識別を行うための前処理として、ブロ
ック110で、ストローク構造情報の抽出を行う。具体
的には、IBM Technical Disclosure Bulletin (以下、I
BM TDB と称する)NO.1b, June 1992, pp.228-232、IBM
TDB NO.1b, June 1992, pp.220-227 に述べられている
ストロークの形状情報、及びストローク間の相対位置情
報などを抽出し、特徴ベクトルを作成する。特徴量の例
を、以下の表1に示す。本実施例では、合計42個の特
徴を用い、各特徴量は8ビットの整数値にコード化し
た。本実施例では、例えば、1番目の特徴量、すなわち
ストローク数では、1画、2画、3画の可能性がある
が、このそれぞれに、64、128、192という整数
値を割り当てる。表1において、その左欄に括弧書きし
たのが、42バイトの全体の特徴量において、その特徴
量が占めるバイト位置である。尚、表1では、特に本発
明に関連のない特徴量について、記載を省略しており、
よって、バイト位置が一部スキップして示されている。
似文字識別について説明する。ニューラル・ネットワー
クによる類似文字識別を行うための前処理として、ブロ
ック110で、ストローク構造情報の抽出を行う。具体
的には、IBM Technical Disclosure Bulletin (以下、I
BM TDB と称する)NO.1b, June 1992, pp.228-232、IBM
TDB NO.1b, June 1992, pp.220-227 に述べられている
ストロークの形状情報、及びストローク間の相対位置情
報などを抽出し、特徴ベクトルを作成する。特徴量の例
を、以下の表1に示す。本実施例では、合計42個の特
徴を用い、各特徴量は8ビットの整数値にコード化し
た。本実施例では、例えば、1番目の特徴量、すなわち
ストローク数では、1画、2画、3画の可能性がある
が、このそれぞれに、64、128、192という整数
値を割り当てる。表1において、その左欄に括弧書きし
たのが、42バイトの全体の特徴量において、その特徴
量が占めるバイト位置である。尚、表1では、特に本発
明に関連のない特徴量について、記載を省略しており、
よって、バイト位置が一部スキップして示されている。
【表1】
【0030】次に、類似文字識別のためのニューラル・
ネットワークの構造について説明する。図1を参照する
と、ブロック112では、ブロック106で出力された
候補に対して、ブロック110で抽出した特徴をもと
に、各候補が正解である確からしさを調べる。全文字セ
ットに対して類似文字識別を行うこともできるが、辞書
サイズをコンパクトに保つため対象文字を限ることもで
きる。本実施例では、類似文字の集中している3画以下
の漢字及び非漢字334カテゴリーに限って識別を行
い、図2に示すように、カテゴリー1個ごとに1つのク
ラスを構成し、各々別のニューラルネットワークNN1
〜NNnを設ける。
ネットワークの構造について説明する。図1を参照する
と、ブロック112では、ブロック106で出力された
候補に対して、ブロック110で抽出した特徴をもと
に、各候補が正解である確からしさを調べる。全文字セ
ットに対して類似文字識別を行うこともできるが、辞書
サイズをコンパクトに保つため対象文字を限ることもで
きる。本実施例では、類似文字の集中している3画以下
の漢字及び非漢字334カテゴリーに限って識別を行
い、図2に示すように、カテゴリー1個ごとに1つのク
ラスを構成し、各々別のニューラルネットワークNN1
〜NNnを設ける。
【0031】尚、上記で、漢字について、ニューラル・
ネットワークで識別を行うのを3画以下のものに限定し
たのは、4画以上の文字については、前段のパターン・
マッチングだけでも認識率が比較的良好であるからであ
る。これは4画以上のストロークの x, y 座標の時系列
がデータとして与えられた場合、テンプレートの中から
唯一の文字カテゴリーを選ぶに十分な情報となることを
示す。これは、4画以上の文字は、比較的同型異文字が
少ないことからも妥当な結果と考えられる。従って、本
実施例では、従って4画以上の文字入力に対しては、特
に類似文字識別を行わず、パターン・マッチングの出力
を最終結果としてそのまま用いる。
ネットワークで識別を行うのを3画以下のものに限定し
たのは、4画以上の文字については、前段のパターン・
マッチングだけでも認識率が比較的良好であるからであ
る。これは4画以上のストロークの x, y 座標の時系列
がデータとして与えられた場合、テンプレートの中から
唯一の文字カテゴリーを選ぶに十分な情報となることを
示す。これは、4画以上の文字は、比較的同型異文字が
少ないことからも妥当な結果と考えられる。従って、本
実施例では、従って4画以上の文字入力に対しては、特
に類似文字識別を行わず、パターン・マッチングの出力
を最終結果としてそのまま用いる。
【0032】ニューラルネットワークおよび尤度変換器
の学習方法: (a) 教師データの作成方法: 先に述べたように,手書
きデータには多様なバリエーション、例えば筆順や画数
変動に対応するため、異なる筆記者から採取したサンプ
ルを、カテゴリー毎に100個用意する。そうして、全
文字カテゴリーの学習用手書きデータから、 次に示す
手順で教師パターン・データを作成する。
の学習方法: (a) 教師データの作成方法: 先に述べたように,手書
きデータには多様なバリエーション、例えば筆順や画数
変動に対応するため、異なる筆記者から採取したサンプ
ルを、カテゴリー毎に100個用意する。そうして、全
文字カテゴリーの学習用手書きデータから、 次に示す
手順で教師パターン・データを作成する。
【0033】(1) この類似文字識別部で対象とする3画
以下の全334文字カテゴリーの学習用手書きデータ
を、前段のパターン・マッチング部106に入力し、予
め定めた閾値内に正規化距離が収まった文字を候補文字
とする。例えば、'あ'という文字のパターンを1個入れ
ると、候補文字として、'あ'、'め'、'ぬ'、'ぁ'など、
正解の'あ'の他に、'あ'と紛らわしいものも出力され
る。典型的な例として、候補文字数は、20である。
以下の全334文字カテゴリーの学習用手書きデータ
を、前段のパターン・マッチング部106に入力し、予
め定めた閾値内に正規化距離が収まった文字を候補文字
とする。例えば、'あ'という文字のパターンを1個入れ
ると、候補文字として、'あ'、'め'、'ぬ'、'ぁ'など、
正解の'あ'の他に、'あ'と紛らわしいものも出力され
る。典型的な例として、候補文字数は、20である。
【0034】(2) 候補文字で、学習用パターン本来の文
字カテゴリーと一致する場合を'正解'とし、それ以外
の、正解パターンと紛らわしいパターンをもつ文字カテ
ゴリーをすべて'不正解'と呼ぶ。各文字の100学習サ
ンプルに対して、'不正解'文字コードのリストを作成す
る。但し、リストの中の文字コードは重複しないように
する。一般に学習用手書きデータには、画数変動した文
字パターンも含まれるため、上記'不正解'リストには、
一般に上記334文字以外の文字コード(例えば4画の
文字)も含まれる。すなわち、各'正解'文字に対する'不
正解'リストには、その文字と間違いやすい文字の一覧
表が形成されてゆく。
字カテゴリーと一致する場合を'正解'とし、それ以外
の、正解パターンと紛らわしいパターンをもつ文字カテ
ゴリーをすべて'不正解'と呼ぶ。各文字の100学習サ
ンプルに対して、'不正解'文字コードのリストを作成す
る。但し、リストの中の文字コードは重複しないように
する。一般に学習用手書きデータには、画数変動した文
字パターンも含まれるため、上記'不正解'リストには、
一般に上記334文字以外の文字コード(例えば4画の
文字)も含まれる。すなわち、各'正解'文字に対する'不
正解'リストには、その文字と間違いやすい文字の一覧
表が形成されてゆく。
【0035】(3)各334文字に対して、学習用手書き
データから、'正解'となる100サンプルをとり正解パ
ターンデータとし、'不正解'リストにある各文字のサン
プルを学習用データから夫々100サンプルをとり不正
解パターン・データとする。
データから、'正解'となる100サンプルをとり正解パ
ターンデータとし、'不正解'リストにある各文字のサン
プルを学習用データから夫々100サンプルをとり不正
解パターン・データとする。
【0036】(4)上記で作成した、各334文字ごとの
正解・不正解パターンデータを、各ニューラルネットワ
ーク学習のための教師パタン・データとする。
正解・不正解パターンデータを、各ニューラルネットワ
ーク学習のための教師パタン・データとする。
【0037】(b) ニューラルネットワークの学習方法:
上記の方法で集められた各文字ごとの正解・不正解パタ
ーンデータから、図1のブロック110に関連して述べ
た特徴ベクトルを抽出し、図3に示した各文字毎に設け
られた3層のフィード・フォワード型ニューラルネット
ワークを、例えば、D. E. Rummelhart, G.E. Hinton, a
nd R. J. Williams: "Learning Internal Representati
ons by Error Propagation," in Parallel Distributed
Processing, Vol. 1, D. E. Rummelhalt and J.L. McC
lelland (eds.), MIT Press (1986)に示されているバ
ック・プロパゲーション(BP)法で学習させる。
上記の方法で集められた各文字ごとの正解・不正解パタ
ーンデータから、図1のブロック110に関連して述べ
た特徴ベクトルを抽出し、図3に示した各文字毎に設け
られた3層のフィード・フォワード型ニューラルネット
ワークを、例えば、D. E. Rummelhart, G.E. Hinton, a
nd R. J. Williams: "Learning Internal Representati
ons by Error Propagation," in Parallel Distributed
Processing, Vol. 1, D. E. Rummelhalt and J.L. McC
lelland (eds.), MIT Press (1986)に示されているバ
ック・プロパゲーション(BP)法で学習させる。
【0038】以下、BP法によるネットワークの学習つ
いて概略を述べる。ニューラルネットワークの学習と
は、ネットワークの各層のニューロン間の結合の強さ
を、学習データに基づいて逐次的に変化させることによ
り実現される.具体的には、図3の3層からなるネット
ワークの出力は、
いて概略を述べる。ニューラルネットワークの学習と
は、ネットワークの各層のニューロン間の結合の強さ
を、学習データに基づいて逐次的に変化させることによ
り実現される.具体的には、図3の3層からなるネット
ワークの出力は、
【数8】Z = σ(V0+V1・Y1 + ・・・・ + Vm・Ym)
【0039】ここに、σ(x)は、図4に示すようにニュ
ーロンの入力に対する非線型な興奮特性を模した シグ
モイド関数σ(s)= 1/{ 1 + exp(-s)}、Yj (j は 1
から m の整数) は隠れ層の出力で、
ーロンの入力に対する非線型な興奮特性を模した シグ
モイド関数σ(s)= 1/{ 1 + exp(-s)}、Yj (j は 1
から m の整数) は隠れ層の出力で、
【数9】Yj = σ(W0j+W1j・X1+ ・・・・ +Wnj・Xn)
【0040】ここに、Xi (i は 1 から n の整数) は入
力される特徴ベクトルとする。この系で学習とは、出力
層と隠れ層の結合係数 Vj (0≦j≦m) 及び、 隠れ層と
入力層の結合係数 Wij (0≦i≦n、 0≦j≦m)を以下に
示すプロセスで調節する.但し、 n は入力層のニュー
ロン数、 m は隠れ層のニューロン数で、 図3の例では
各々 42、 6 である。
力される特徴ベクトルとする。この系で学習とは、出力
層と隠れ層の結合係数 Vj (0≦j≦m) 及び、 隠れ層と
入力層の結合係数 Wij (0≦i≦n、 0≦j≦m)を以下に
示すプロセスで調節する.但し、 n は入力層のニュー
ロン数、 m は隠れ層のニューロン数で、 図3の例では
各々 42、 6 である。
【0041】学習処理は、次のようにして行う。 1)学習前のネットワークの結合係数 Vj, Wij を正また
は負の乱数で与える.
は負の乱数で与える.
【0042】2)教師パターンデータより、正解パターン
と不正解パターンを1個ずつ交互に取り出し入力層に与
える。k番目に入力したパターンの特徴ベクトル Xk に
対する出力を Zk とする。学習前のネットワークにおい
ては、 正解・不正解パターンに対する出力の振る舞い
には有意な差はなく、Zk は区間 [0, 1] のランダムな
数値を取る。今、 正解には、 0.9、 不正解から取り出
したときには 0.1 を3層目の出力層に出力するよう、
以下に示す方法で学習を行う。この学習目標値を、教師
信号と呼ぶ。(正解に '1', 不正解に '0' としなかった
のは、図4からも分かるように シグモイド関数 σ(s)
が 1, 0 を出力するためには、引数 s が各々 +∞, -
∞となるからである。よって、s の範囲を有限に抑える
ために、0.9及び0.1とした。)
と不正解パターンを1個ずつ交互に取り出し入力層に与
える。k番目に入力したパターンの特徴ベクトル Xk に
対する出力を Zk とする。学習前のネットワークにおい
ては、 正解・不正解パターンに対する出力の振る舞い
には有意な差はなく、Zk は区間 [0, 1] のランダムな
数値を取る。今、 正解には、 0.9、 不正解から取り出
したときには 0.1 を3層目の出力層に出力するよう、
以下に示す方法で学習を行う。この学習目標値を、教師
信号と呼ぶ。(正解に '1', 不正解に '0' としなかった
のは、図4からも分かるように シグモイド関数 σ(s)
が 1, 0 を出力するためには、引数 s が各々 +∞, -
∞となるからである。よって、s の範囲を有限に抑える
ために、0.9及び0.1とした。)
【0043】3)今、入力 Xk に対する出力 Zk に対し
て、出力値と教師信号に対する差 δ(すなわち正解パ
ターンに対しては δ= Z - 0.9、 不正解パターンに対
してはδ= Z - 0.1 )を求める。この差に基づいて、結
合係数を夫々次式に基づいて、k 番目の入力に対して下
記のように修正する。
て、出力値と教師信号に対する差 δ(すなわち正解パ
ターンに対しては δ= Z - 0.9、 不正解パターンに対
してはδ= Z - 0.1 )を求める。この差に基づいて、結
合係数を夫々次式に基づいて、k 番目の入力に対して下
記のように修正する。
【数10】Vj(k+1) = Vj(k) − c・δ・Yj Wij(k+1) = Wij(k)− c・δ1j・Xi
【0044】ここで,c は小さな正の整数で、また
【数11】δij = δ・Vj・Yj(1 - Yj).
【0045】この修正法によってδは徐々に極小値に近
づくことが知られている。この方法は通常の入力方向と
は逆に出力層に出力と教師信号の差を入力し、この信号
を入力層に逆伝搬し、その信号の大きさにより結合係数
を変えることに対応するので、バック・プロパゲーショ
ン法と呼ぶ。
づくことが知られている。この方法は通常の入力方向と
は逆に出力層に出力と教師信号の差を入力し、この信号
を入力層に逆伝搬し、その信号の大きさにより結合係数
を変えることに対応するので、バック・プロパゲーショ
ン法と呼ぶ。
【0046】4)この操作を全教師パターンに対して繰り
返し行い、十分、教師信号と3層目の出力信号の自乗誤
差の平均がともに十分小さくなったときに学習を終了す
る。
返し行い、十分、教師信号と3層目の出力信号の自乗誤
差の平均がともに十分小さくなったときに学習を終了す
る。
【0047】(c) 尤度変換テーブルの作成方法:学習が
終わった各ニューラルネットワークNN1〜NNn(図
2)に、それぞれのニューラル・ネットワークNNi(i
=1〜n)に対して、当該ニューラル・ネットワークに
係るクラスi(本実施例では、1クラス=1カテゴリで
ある)に対応する、それぞれ同数の正解及び不正解の学
習パターン・データをネットワークに与え、出力分布の
ヒストグラムを取る。このとき、出力は、パターン・デ
ータに応じて、0から1の間の値をとる。尚、前述した
正解パターンと不正解パターンのリストを作成する段階
で、一般的に、正解パターンの数よりも相当に多数の不
正解パターンが得られる。このことは、例えば、'あ'と
いう正解パターンに対して、不正解パターンとして、'
ぬ'、'め'、'ぁ'など複数の文字が得られることから理
解されよう。そこで、例えば、'あ'に対応する不正解パ
ターンを1900個揃えることは容易でも、'あ'に対応
する正解パターンをそれと同数揃えることが困難である
ことがありえる。その場合、'あ'に対応する正解パター
ンを100個揃え、その正解パターンを19回反復して
使用することにより、正解パターンと不正解パターンを
同数にすることを実現する。
終わった各ニューラルネットワークNN1〜NNn(図
2)に、それぞれのニューラル・ネットワークNNi(i
=1〜n)に対して、当該ニューラル・ネットワークに
係るクラスi(本実施例では、1クラス=1カテゴリで
ある)に対応する、それぞれ同数の正解及び不正解の学
習パターン・データをネットワークに与え、出力分布の
ヒストグラムを取る。このとき、出力は、パターン・デ
ータに応じて、0から1の間の値をとる。尚、前述した
正解パターンと不正解パターンのリストを作成する段階
で、一般的に、正解パターンの数よりも相当に多数の不
正解パターンが得られる。このことは、例えば、'あ'と
いう正解パターンに対して、不正解パターンとして、'
ぬ'、'め'、'ぁ'など複数の文字が得られることから理
解されよう。そこで、例えば、'あ'に対応する不正解パ
ターンを1900個揃えることは容易でも、'あ'に対応
する正解パターンをそれと同数揃えることが困難である
ことがありえる。その場合、'あ'に対応する正解パター
ンを100個揃え、その正解パターンを19回反復して
使用することにより、正解パターンと不正解パターンを
同数にすることを実現する。
【0048】ここで区間 [0, 1] をM 等分(M は2以上
の整数)し, i番目の区間 [(i-1)/M,i/M] に含まれる正
解・不正解パターンデータの個数あるいは頻度を、各々
μ1i,μ0i とする(但し、i=1・・M)。こうして描いたヒ
ストグラムの例を、図5に示す。
の整数)し, i番目の区間 [(i-1)/M,i/M] に含まれる正
解・不正解パターンデータの個数あるいは頻度を、各々
μ1i,μ0i とする(但し、i=1・・M)。こうして描いたヒ
ストグラムの例を、図5に示す。
【0049】図5の(a)は、正解パターンに対するヒス
トグラムの例を示し、図5の(b)は、不正解パターンに
対するヒストグラムの例を示す。明らかに、正解パター
ンに対するヒストグラムは、出力"1"に近い方に高い頻
度分布をもち、一方、不正解パターンに対するヒストグ
ラムは、出力"0"に近い方に高い頻度分布をもつ。
トグラムの例を示し、図5の(b)は、不正解パターンに
対するヒストグラムの例を示す。明らかに、正解パター
ンに対するヒストグラムは、出力"1"に近い方に高い頻
度分布をもち、一方、不正解パターンに対するヒストグ
ラムは、出力"0"に近い方に高い頻度分布をもつ。
【0050】このとき未知のパターンデータに対して、
このネットワークが i番目の区間に含まれる出力を与え
た場合、このパターンがこのカテゴリーである尤度P1i
を式: P1i = (μ1i + 1)/(μ1i + μ0i + 2) と
出力するよう尤度変換テーブルとして記憶する。ここ
で、分子及び分母の"+1"及び"+2"という項は、区間
iにおいて、たまたまμ1i=μ0i=0であった場合に、
ゼロによる割算のエラーを回避するための補正項であ
る。この補正項によって、μ1i=μ0i=0の場合は、尤
度変換器が0.5、すなわち、正解及び不正解の尤度が
等しく、正解・不正解のどちらとも言えないようになさ
れる。尚、μ1i及びμ0iは、通常、数十乃至数百のオー
ダーであるので、このような補正項は、結果の尤度に殆
ど影響を与えない。
このネットワークが i番目の区間に含まれる出力を与え
た場合、このパターンがこのカテゴリーである尤度P1i
を式: P1i = (μ1i + 1)/(μ1i + μ0i + 2) と
出力するよう尤度変換テーブルとして記憶する。ここ
で、分子及び分母の"+1"及び"+2"という項は、区間
iにおいて、たまたまμ1i=μ0i=0であった場合に、
ゼロによる割算のエラーを回避するための補正項であ
る。この補正項によって、μ1i=μ0i=0の場合は、尤
度変換器が0.5、すなわち、正解及び不正解の尤度が
等しく、正解・不正解のどちらとも言えないようになさ
れる。尚、μ1i及びμ0iは、通常、数十乃至数百のオー
ダーであるので、このような補正項は、結果の尤度に殆
ど影響を与えない。
【0051】尤度変換器は具体的には、次のように構成
される。すなわち、一般的に、ニューラル・ネットワー
クからの出力は、0〜1の間の浮動小数点数である。そ
こで、尤度変換器の前段に、入来した浮動小数点数を1
00倍して、小数点以下を切り捨て、以て0〜99の整
数を出力する手段を配置する。さらに、尤度変換器に、
上記P1i(i = 0 〜 99)の値を100個、エントリと
してもつテーブルを用意し、上記前段の出力値がiであ
ることに応答して、テーブルのi番目のエントリが索引
され、上記P1iの値が出力されるように、構成する。
される。すなわち、一般的に、ニューラル・ネットワー
クからの出力は、0〜1の間の浮動小数点数である。そ
こで、尤度変換器の前段に、入来した浮動小数点数を1
00倍して、小数点以下を切り捨て、以て0〜99の整
数を出力する手段を配置する。さらに、尤度変換器に、
上記P1i(i = 0 〜 99)の値を100個、エントリと
してもつテーブルを用意し、上記前段の出力値がiであ
ることに応答して、テーブルのi番目のエントリが索引
され、上記P1iの値が出力されるように、構成する。
【0052】尚、区間 [0, 1] をM 等分した例を示した
が、本発明は、このような等間隔の区間ではなく、より
一般的に、 0=a0 < a1 ・・・ < ai-1 < ai ・・・ < aM-1 < aM
= 1 のような、区間分割を使用しても実現することができ
る。このとき、i番目の区間は、[ai-1,ai]となる。こ
のような非等分区間のヒストグラムの例を図6に示す。
実際上、0.1と0.9付近で高い頻度が発生しがちで
あるので、これらを含む区間をより密にし、0.5など
の比較的頻度の低い箇所を含む区間を疎にするのが有効
である。このような非等分区間を使用した場合も、入来
した浮動小数点数を100倍して、小数点以下を切り捨
て、以て得られた0〜99の整数値iでテーブル・ルッ
クアップを行うことができるが、但し、その際尤度変換
器中に設けるテーブルは、対応する区間の幅が0.01
よりも広い場合には、異なるiに対して同一のP1iを出
力することがありえる。このようなテーブルを構成する
ために、上記aiを100倍して小数点以下を切り捨て
た整数Aiを予め計算し、表2に示すようなテーブルを
尤度変換器中に設けて、テーブル・ルックアップを行う
ようにする。
が、本発明は、このような等間隔の区間ではなく、より
一般的に、 0=a0 < a1 ・・・ < ai-1 < ai ・・・ < aM-1 < aM
= 1 のような、区間分割を使用しても実現することができ
る。このとき、i番目の区間は、[ai-1,ai]となる。こ
のような非等分区間のヒストグラムの例を図6に示す。
実際上、0.1と0.9付近で高い頻度が発生しがちで
あるので、これらを含む区間をより密にし、0.5など
の比較的頻度の低い箇所を含む区間を疎にするのが有効
である。このような非等分区間を使用した場合も、入来
した浮動小数点数を100倍して、小数点以下を切り捨
て、以て得られた0〜99の整数値iでテーブル・ルッ
クアップを行うことができるが、但し、その際尤度変換
器中に設けるテーブルは、対応する区間の幅が0.01
よりも広い場合には、異なるiに対して同一のP1iを出
力することがありえる。このようなテーブルを構成する
ために、上記aiを100倍して小数点以下を切り捨て
た整数Aiを予め計算し、表2に示すようなテーブルを
尤度変換器中に設けて、テーブル・ルックアップを行う
ようにする。
【表2】
【0053】このような尤度変換器の介在によって、各
ネットワークが尤度を出力するように正規化され、以
て、ネットワークの学習のばらつきが補正され、各ネッ
トワークの出力が相互に比較出来るようになる。すなわ
ち最大の尤度を与えるカテゴリーが、最も確からしい候
補と判定出来る。
ネットワークが尤度を出力するように正規化され、以
て、ネットワークの学習のばらつきが補正され、各ネッ
トワークの出力が相互に比較出来るようになる。すなわ
ち最大の尤度を与えるカテゴリーが、最も確からしい候
補と判定出来る。
【0054】このことをより分かりやすくするために、
従来の尤度変換器を用いない次のような例を考えてみよ
う。今、あるパターンが第1のクラスのニューラル・ネ
ットワーク及び第2のクラスのニューラル・ネットワー
クに入力され、第1のクラスのニューラル・ネットワー
クが0.8という値を出力し、一方、第2のクラスのニ
ューラル・ネットワークが、0.7という値を出力した
とする。すると、従来の構成では、第1のクラスの方を
より確からしい候補であると見なすよりない。ところ
が、上記した尤度変換器を用意するステップで、第1の
クラスでは、0.8という値を含む区間における正解パ
ターンの頻度が100で、不正解パターンの頻度が20
であったとする。一方、第2のクラスでは、0.7とい
う値を含む区間における正解パターンの頻度が150
で、不正解パターンの頻度が10であったとする。する
と、第1のクラスのニューラル・ネットワークでは、正
解である尤度が、(100+1)/(100+20+
2)=0.83と計算され、一方、第2のクラスのニュ
ーラル・ネットワークでは、正解である尤度が、(20
0+1)/(200+10+2)=0.95と計算さ
れ、判定基準は逆転する。このとき、ニューラル・ネッ
トワークの出力自体よりも、その出力値において正解パ
ターンがあらわれる尤度の方が、より信頼性の高い値で
あることが理解されよう。
従来の尤度変換器を用いない次のような例を考えてみよ
う。今、あるパターンが第1のクラスのニューラル・ネ
ットワーク及び第2のクラスのニューラル・ネットワー
クに入力され、第1のクラスのニューラル・ネットワー
クが0.8という値を出力し、一方、第2のクラスのニ
ューラル・ネットワークが、0.7という値を出力した
とする。すると、従来の構成では、第1のクラスの方を
より確からしい候補であると見なすよりない。ところ
が、上記した尤度変換器を用意するステップで、第1の
クラスでは、0.8という値を含む区間における正解パ
ターンの頻度が100で、不正解パターンの頻度が20
であったとする。一方、第2のクラスでは、0.7とい
う値を含む区間における正解パターンの頻度が150
で、不正解パターンの頻度が10であったとする。する
と、第1のクラスのニューラル・ネットワークでは、正
解である尤度が、(100+1)/(100+20+
2)=0.83と計算され、一方、第2のクラスのニュ
ーラル・ネットワークでは、正解である尤度が、(20
0+1)/(200+10+2)=0.95と計算さ
れ、判定基準は逆転する。このとき、ニューラル・ネッ
トワークの出力自体よりも、その出力値において正解パ
ターンがあらわれる尤度の方が、より信頼性の高い値で
あることが理解されよう。
【0055】さらに極端な例を挙げると、どのような入
力パターンに対しても、必ず0.9という大きい値を出
力する、意味のないニューラル・ネットワークが、ニュ
ーラル・ネットワーク群のうちに1つ存在していたとし
よう。すると、ニューラル・ネットワーク群のうちの他
のニューラル・ネットワークが0.9よりもわずかに小
さい値を出力しても、単に最大の出力値を選択する、と
いうスキームに従うなら、この意味のないニューラル・
ネットワークが最も確からしいとして選択されてしま
う。しかし、本発明の尤度変換器を介在させることによ
って、この意味のないニューラル・ネットワークの出力
は、図7からも分かるように、常に0.5に変換され
る。ところが、尤度0.5というのは、入力パターンに
一致する尤度も、一致しない尤度も等しい、ということ
であるから、パターン・マッチングに関して何の情報も
与えない無意味な値と見なして拒絶することも可能とな
る。
力パターンに対しても、必ず0.9という大きい値を出
力する、意味のないニューラル・ネットワークが、ニュ
ーラル・ネットワーク群のうちに1つ存在していたとし
よう。すると、ニューラル・ネットワーク群のうちの他
のニューラル・ネットワークが0.9よりもわずかに小
さい値を出力しても、単に最大の出力値を選択する、と
いうスキームに従うなら、この意味のないニューラル・
ネットワークが最も確からしいとして選択されてしま
う。しかし、本発明の尤度変換器を介在させることによ
って、この意味のないニューラル・ネットワークの出力
は、図7からも分かるように、常に0.5に変換され
る。ところが、尤度0.5というのは、入力パターンに
一致する尤度も、一致しない尤度も等しい、ということ
であるから、パターン・マッチングに関して何の情報も
与えない無意味な値と見なして拒絶することも可能とな
る。
【0056】ところで、等分区間を採用した場合、尤度
変換器のテーブル・エントリとして格納され、ニューラ
ル・ネットワークからの出力値に応じて出力されるP1
iの値は、図8のようになる。上記実施例では、ニュー
ラル・ネットワークからの出力値に基づきP1iの値を
出力するのを、テーブル・ルックアップによって実現し
たが、本発明はこれに限定されるものではなく、図9に
示すように、多項式近似によって、P1(x)の曲線を
求めてもよい。この場合、例えば、P1iの値を図8の
ようなバーチャート形式で一旦求めておいて、図9に示
すn次(n<M)多項式に基づき、x=(i-1/2)/M、P
1(x)=P1i(i=1〜M)というM組の値を使用して、
周知の最小2乗近似法により、多項式の係数bi(i=0〜
n)を決定することもできる。すると、結果の多項式
は、図8のヒストグラムを補間する曲線グラフを与え
る。そうして、尤度変換器中には、こうして決定した多
項式の値を計算する機能が組み込まれ、尤度変換器は、
ニューラル・ネットワークからの出力値に基づき、テー
ブル・ルックアップではなく、多項式の演算によって、
尤度値を出力する。
変換器のテーブル・エントリとして格納され、ニューラ
ル・ネットワークからの出力値に応じて出力されるP1
iの値は、図8のようになる。上記実施例では、ニュー
ラル・ネットワークからの出力値に基づきP1iの値を
出力するのを、テーブル・ルックアップによって実現し
たが、本発明はこれに限定されるものではなく、図9に
示すように、多項式近似によって、P1(x)の曲線を
求めてもよい。この場合、例えば、P1iの値を図8の
ようなバーチャート形式で一旦求めておいて、図9に示
すn次(n<M)多項式に基づき、x=(i-1/2)/M、P
1(x)=P1i(i=1〜M)というM組の値を使用して、
周知の最小2乗近似法により、多項式の係数bi(i=0〜
n)を決定することもできる。すると、結果の多項式
は、図8のヒストグラムを補間する曲線グラフを与え
る。そうして、尤度変換器中には、こうして決定した多
項式の値を計算する機能が組み込まれ、尤度変換器は、
ニューラル・ネットワークからの出力値に基づき、テー
ブル・ルックアップではなく、多項式の演算によって、
尤度値を出力する。
【0057】(3) 候補文字・最終正解確率の決定方法 この過程では、未知の入力パターンに対して、大分類部
で選ばれた複数の候補文字に対して、比較のため (a)従
来法の尤度変換器をもたないニューラルネットワークの
最大出力を与える文字カテゴリーを正解とした場合(従
来技術)、(b) 本発明の尤度変換器を用いて、各ネット
ワークの出力を補正し最大値を与える文字カテゴリーを
選んだ場合、(c) 本発明の別の実施例として、大分類部
で選ばれた各候補文字に対する正解確率と、各ネットワ
ークの尤度とのベイズの定理による総合判定を行った場
合の一位正解認識率を測定した。
で選ばれた複数の候補文字に対して、比較のため (a)従
来法の尤度変換器をもたないニューラルネットワークの
最大出力を与える文字カテゴリーを正解とした場合(従
来技術)、(b) 本発明の尤度変換器を用いて、各ネット
ワークの出力を補正し最大値を与える文字カテゴリーを
選んだ場合、(c) 本発明の別の実施例として、大分類部
で選ばれた各候補文字に対する正解確率と、各ネットワ
ークの尤度とのベイズの定理による総合判定を行った場
合の一位正解認識率を測定した。
【0058】ベイズの定理による総合判定の方法は次の
とおりである。すなわち、今、文字カテゴリーが未知の
入力 x (3画以下の文字パターンとする) に対してパタ
ーン・マッチング部が N 個の候補文字を出力し、それ
ぞれの正解確率を Pi ( 1≦i≦N )とする。 一方、 各
候補文字に対して各ニューラル・ネットワークから出力
された尤度を Пi ( 1≦i≦N ) とすれば、総合判定し
た正解確率 Ri は、
とおりである。すなわち、今、文字カテゴリーが未知の
入力 x (3画以下の文字パターンとする) に対してパタ
ーン・マッチング部が N 個の候補文字を出力し、それ
ぞれの正解確率を Pi ( 1≦i≦N )とする。 一方、 各
候補文字に対して各ニューラル・ネットワークから出力
された尤度を Пi ( 1≦i≦N ) とすれば、総合判定し
た正解確率 Ri は、
【数12】Ri = Pi・Πi / { Pi・Πi + (1
− Pi)・(1 − Πi)}
− Pi)・(1 − Πi)}
【0059】で求めることが出来る。候補文字カテゴリ
ーの中で、最大の総合正解確率を与えるものを一位正解
とした。
ーの中で、最大の総合正解確率を与えるものを一位正解
とした。
【0060】実験データは、予め141人の被験者より
収集した手書き文字データ2384カテゴリー/約24
0000個の文字データのうち、認識テスト用に20人
分約32000個を除き、学習用データとして、パター
ン・マッチング用のテンプレートを作成した。またその
中から、3画以下のデータ(334カテゴリー)を類似
文字識別部の学習データとし、上述の方法で、334個
の各ニューラルネットワークと尤度変換テーブルを学習
させた。パターン認識部・類似文字識別部を含むオンラ
イン手書き文字認識装置は、IBMのパーソナル・コン
ピュータであるPS/55上に、ソフトウェアで実現し
た。
収集した手書き文字データ2384カテゴリー/約24
0000個の文字データのうち、認識テスト用に20人
分約32000個を除き、学習用データとして、パター
ン・マッチング用のテンプレートを作成した。またその
中から、3画以下のデータ(334カテゴリー)を類似
文字識別部の学習データとし、上述の方法で、334個
の各ニューラルネットワークと尤度変換テーブルを学習
させた。パターン認識部・類似文字識別部を含むオンラ
イン手書き文字認識装置は、IBMのパーソナル・コン
ピュータであるPS/55上に、ソフトウェアで実現し
た。
【0061】結果を表3に示す。尚、表3では、入力し
た字種ごとの認識率を記載するが、認識は全字種238
4カテゴリーを対象に行った。このため同型文字、例え
ば '夕'(漢字) の入力に対して 'タ'(カタカナ) 、'O'
(アルファベット)に対して'0'(数字)を第1位候補と
したときは、誤認識と扱っている。
た字種ごとの認識率を記載するが、認識は全字種238
4カテゴリーを対象に行った。このため同型文字、例え
ば '夕'(漢字) の入力に対して 'タ'(カタカナ) 、'O'
(アルファベット)に対して'0'(数字)を第1位候補と
したときは、誤認識と扱っている。
【表3】
【0062】上記のように、尤度変換器を使用しない従
来方式(1)に比べて、本発明を用いる方式 (2), (3) は
類似文字の影響で認識率の低下が著しい英語小文字、数
字、記号に対して顕著な改善が認められ、本発明に示す
尤度変換を行うニューラル・ネットワーク群の有効性が
確認された。
来方式(1)に比べて、本発明を用いる方式 (2), (3) は
類似文字の影響で認識率の低下が著しい英語小文字、数
字、記号に対して顕著な改善が認められ、本発明に示す
尤度変換を行うニューラル・ネットワーク群の有効性が
確認された。
【0063】本実施例では、ニューラル・ネットワーク
部分の浮動小数点演算を整数演算で行うなどの工夫をこ
らすことにより、ソフトウェアの上での実施で十分実用
に耐えるパフォーマンスを得る事ができた。例えば、I
BM 5580 - Yモデル・パーソナル・コンピュータ上
で、類似文字識別速度は、ひらがな・カタカナ・英数字
に対して、1文字当たり各々、48ms,46ms, 40ms となっ
た。
部分の浮動小数点演算を整数演算で行うなどの工夫をこ
らすことにより、ソフトウェアの上での実施で十分実用
に耐えるパフォーマンスを得る事ができた。例えば、I
BM 5580 - Yモデル・パーソナル・コンピュータ上
で、類似文字識別速度は、ひらがな・カタカナ・英数字
に対して、1文字当たり各々、48ms,46ms, 40ms となっ
た。
【0064】本発明の適用できる他の例 本発明は、この実施例に述べた日本語オンライン手書き
文字認識以外にも、多数のカテゴリーからなるパターン
認識で、フィードフォワード型ニューラルネットワーク
が認識に用いられる場合に広く適用することができる。
その例として、 1)濃淡画像、例えば人間の顔の識別、 2)手書きまたは印刷文字OCR、 3)音声認識、 4)経済変動、例えば株価の変動などの時系列パターンの
予想、などがある。
文字認識以外にも、多数のカテゴリーからなるパターン
認識で、フィードフォワード型ニューラルネットワーク
が認識に用いられる場合に広く適用することができる。
その例として、 1)濃淡画像、例えば人間の顔の識別、 2)手書きまたは印刷文字OCR、 3)音声認識、 4)経済変動、例えば株価の変動などの時系列パターンの
予想、などがある。
【0065】
【発明の効果】以上説明したように、本発明によれば、
パターン認識システムにおいて、パターンを入力したと
きのニューラル・ネットワーク群からの出力をそのま
ま、パターン認識の正解確率として使用するのではな
く、この出力を一旦、尤度変換器に入力し、ここで、該
出力が、正解パターンに対応する値である尤度に変換
し、この尤度で以てパターン・マッチングの確かさを判
断するようにしたので、ニューラル・ネットワーク群中
の各ニューラル・ネットワーク間の出力のばらつきが補
正され、ニューラル・ネットワーク群中の各ニューラル
・ネットワークを、言わば統一した基準値のもとに判断
することが可能となり、パターン・マッチングの認識率
を向上させることができる。
パターン認識システムにおいて、パターンを入力したと
きのニューラル・ネットワーク群からの出力をそのま
ま、パターン認識の正解確率として使用するのではな
く、この出力を一旦、尤度変換器に入力し、ここで、該
出力が、正解パターンに対応する値である尤度に変換
し、この尤度で以てパターン・マッチングの確かさを判
断するようにしたので、ニューラル・ネットワーク群中
の各ニューラル・ネットワーク間の出力のばらつきが補
正され、ニューラル・ネットワーク群中の各ニューラル
・ネットワークを、言わば統一した基準値のもとに判断
することが可能となり、パターン・マッチングの認識率
を向上させることができる。
【図1】 本発明の処理を示すブロック図である。
【図2】 本発明に係る尤度変換器を接続されたニュー
ラルネットワーク群のブロック図である。
ラルネットワーク群のブロック図である。
【図3】 3層ニューラルネットワークとそれに接続さ
れた尤度変換器のブロック図である。
れた尤度変換器のブロック図である。
【図4】 シグモイド関数のグラフを示す図である。
【図5】 尤度変換器を構成するために使用される一定
区間のヒストグラムの例を示す図である。
区間のヒストグラムの例を示す図である。
【図6】 尤度変換器を構成するために使用される非等
区間のヒストグラムの例を示す図である。
区間のヒストグラムの例を示す図である。
【図7】 ニューラル・ネットワークの極めて特殊な出
力の例の場合のヒストグラムを示す図である。
力の例の場合のヒストグラムを示す図である。
【図8】 尤度変換器の出力の例を示す図である。
【図9】 尤度変換器を、多項式近似で構成する場合の
例を示す図である。
例を示す図である。
Claims (17)
- 【請求項1】(a) 異なる入力パターンの入力に応答し
て、異なる出力値を出力するように学習されたニューラ
ル・ネットワークと、(b) 上記ニューラル・ネットワー
クの出力を入力し、該出力が、正解パターンに対応する
値である尤度を出力する尤度変換器とを具備する、 ニューラル・ネットワークによるパターン認識装置。 - 【請求項2】上記ニューラル・ネットワークの出力は、
0と1の間にあり、0=a0 < a1・・・ < ai-1 < ai
・・・ < aM-1 < aM = 1という値によって該出力の区間
[0,1] をM(M は2以上の整数)個の区間に分割したと
き、上記尤度変換器は、上記出力がi番目の区間
[ai-1, ai] (但し、i=1〜M)に含まれることに応答し
て、該i番目の区間における出力が、正解パターンに対
応する値である尤度P1iを出力するように構成されてい
ることを特徴とする、請求項1に記載のニューラル・ネ
ットワークによるパターン認識装置。 - 【請求項3】上記i番目の区間[ai-1, ai]に含まれる
正解・不正解パターンデータの頻度を各々μ1i, μ0i
としたとき、上記尤度P1iは、P1i = (μ1i + 1)/
(μ1i+ μ0i + 2)で計算された値として出力される
ことを特徴とする、請求項2に記載のニューラル・ネッ
トワークによるパターン認識装置。 - 【請求項4】上記[ai-1, ai]は[(i-1)/M,i/M](但
し、i=1〜M)という等間隔の区間である、請求項2に記
載のニューラル・ネットワークによるパターン認識装
置。 - 【請求項5】(a) 異なる入力パターンに応答して、異な
る出力値を出力するように学習され、各々が認識すべき
パターンの異なるクラスに対応するものである複数のニ
ューラル・ネットワークと、(b) 上記各々のニューラル
・ネットワークの出力に個別に接続され、該出力が、正
解パターンに対応する値である尤度を出力する複数の尤
度変換器とを具備し、 上記尤度変換器のうち、最大の出力を与えるものに対応
する上記ニューラル・ネットワークのクラスを、認識さ
れた最も確からしいクラスと判定することを特徴とす
る、 ニューラル・ネットワークによるパターン認識装置。 - 【請求項6】上記ニューラル・ネットワークの出力は、
0と1の間にあり、0=a0 < a1・・・ < ai-1 < ai
・・・ < aM-1 < aM = 1という値によって該出力の区間
[0,1] をM(M は2以上の整数)個の区間に分割したと
き、上記尤度変換器は、上記出力がi番目の区間
[ai-1, ai] (但し、i=1〜M) に含まれることに応答
して、該i番目の区間における出力が、正解パターンに
対応する値である尤度P1iを出力するように構成されて
いることを特徴とする、請求項5に記載のニューラル・
ネットワークによるパターン認識装置。 - 【請求項7】上記i番目の区間[ai-1, ai]に含まれる
正解・不正解パターンデータの頻度を各々μ1i, μ0i
としたとき、上記尤度P1iは、P1i = (μ1i + 1)/
(μ1i+ μ0i + 2)で計算された値として出力される
ことを特徴とする、請求項6に記載のニューラル・ネッ
トワークによるパターン認識装置。 - 【請求項8】上記P1iは、それぞれ、上記尤度変換器中
に、予め計算された個別にアドレス可能な値として格納
され、上記尤度変換器は、上記ニューラル・ネットワー
クからの出力に応答して、該出力が入る区間[ai-1, a
i]に関連して格納されているP1iをアドレスして出力す
る手段を有することを特徴とする、請求項6に記載のニ
ューラル・ネットワークによるパターン認識装置。 - 【請求項9】上記[ai-1, ai]は[(i-1)/M,i/M](但
し、i=1〜M)という等間隔の区間である、請求項6に記
載のニューラル・ネットワークによるパターン認識装
置。 - 【請求項10】(a) 入力された認識すべきパターンを、
予め用意したテンプレートと比較して、認識すべき異な
るクラス毎の正解確率を与えるパターン・マッチング手
段と、(b) 異なる入力パターンに応答して、異なる出力
値を出力するように学習され、各々が認識すべきパター
ンの異なるクラスに対応するものである複数のニューラ
ル・ネットワークと、(c) 上記各々のニューラル・ネッ
トワークの出力に個別に接続され、該出力が、正解パタ
ーンに対応する値である尤度を出力する複数の尤度変換
器と、(d) 上記パターン・マッチング手段によって与え
られたクラス毎の正解確率と、上記尤度変換器によって
クラス毎に出力された上記尤度とをベイズの定理によっ
て結合し、条件付き確率を与える手段と、 上記与えられた条件付き確率のうち、最大の出力を与え
るものに対応する上記ニューラル・ネットワークのクラ
スを、認識された最も確からしいクラスと判定すること
を特徴とする、 ニューラル・ネットワークによるパターン認識装置。 - 【請求項11】上記ニューラル・ネットワークの出力
は、0と1の間にあり、0=a0 < a1・・・ < ai-1 <
ai ・・・ < aM-1 < aM = 1という値によって該出力の
区間 [0,1] をM(M は2以上の整数)個の区間に分割した
とき、上記尤度変換器は、上記出力がi番目の区間 [a
i-1, ai] (但し、i=1〜M) に含まれることに応答し
て、該i番目の区間における出力が、正解パターンに対
応する値である尤度P1iを出力するように構成されてい
ることを特徴とする、請求項10に記載のニューラル・
ネットワークによるパターン認識装置。 - 【請求項12】上記i番目の区間[ai-1, ai]に含まれ
る正解・不正解パターンデータの頻度を各々μ1i, μ0i
としたとき、上記尤度P1iは、P1i = (μ1i + 1)/
(μ1i+ μ0i + 2)で計算された値として出力される
ことを特徴とする、請求項11に記載のニューラル・ネ
ットワークによるパターン認識装置。 - 【請求項13】上記P1iは、それぞれ、上記尤度変換器
中に、予め計算された個別にアドレス可能な値として格
納され、上記尤度変換器は、上記ニューラル・ネットワ
ークからの出力に応答して、該出力が入る区間[ai-1,
ai]に関連して格納されているP1iをアドレスして出力
する手段を有することを特徴とする、請求項11に記載
のニューラル・ネットワークによるパターン認識装置。 - 【請求項14】上記[ai-1, ai]は[(i-1)/M,i/M](但
し、i=1〜M)という等間隔の区間である、請求項11に
記載のニューラル・ネットワークによるパターン認識装
置。 - 【請求項15】(a) 認識すべき正解パターンと、不正解
パターンを複数用意し、正解パターンに対しては、"1"
または"1"に近い値を出力し、不正解パターンに対して
は、"0"または"0"に近い値を出力するように、ニューラ
ル・ネットワークを学習させる段階と、(b) 0=a0 <
a1 ・・・ < ai-1 < ai ・・・ < aM-1 < aM = 1という
値によって該出力の区間 [0, 1] をM(M は2以上の整
数)個の区間に分割し、上記学習後のニューラル・ネッ
トワークに対して、それぞれほぼ同数の複数の正解パタ
ーン及び不正解パターン入力し、i番目の区間[ai-1,
ai] に含まれる正解・不正解パターンデータの個数あ
るいは頻度を計数して各々μ1i, μ0i として記憶し
(但し、i=1・・M)、各々の区間毎に、μ1i, μ0iの値か
ら、P1iを計算し記憶することによって尤度変換テーブ
ルを構成する段階を有し、 以て、上記ニューラル・ネットワークの出力が、区間
[ai-1, ai]内にあることに応答して、上記P1iを正解
尤度として出力することを可能ならしめることを特徴と
する、 ニューラル・ネットワークによるパターン認識方法。 - 【請求項16】上記P1iが、P1i = (μ1i + 1)/(μ
1i + μ0i + 2)によって計算された値として出力さ
れることを特徴とする、請求項12に記載のニューラル
・ネットワークによるパターン認識方法。 - 【請求項17】上記[ai-1, ai]は[(i-1)/M,i/M](但
し、i=1〜M)という等間隔の区間である、請求項15に
記載のニューラル・ネットワークによるパターン認識方
法。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5211386A JP2673871B2 (ja) | 1993-08-26 | 1993-08-26 | ニューラル・ネットワークによるパターン認識方法及び装置 |
| EP94306325A EP0640935A3 (en) | 1993-08-26 | 1994-08-26 | Pattern recognition through neural network. |
| US08/707,888 US5832108A (en) | 1993-08-26 | 1996-09-09 | Pattern recognition method using a network and system therefor |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5211386A JP2673871B2 (ja) | 1993-08-26 | 1993-08-26 | ニューラル・ネットワークによるパターン認識方法及び装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH0765165A true JPH0765165A (ja) | 1995-03-10 |
| JP2673871B2 JP2673871B2 (ja) | 1997-11-05 |
Family
ID=16605104
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP5211386A Expired - Fee Related JP2673871B2 (ja) | 1993-08-26 | 1993-08-26 | ニューラル・ネットワークによるパターン認識方法及び装置 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US5832108A (ja) |
| EP (1) | EP0640935A3 (ja) |
| JP (1) | JP2673871B2 (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007521550A (ja) * | 2003-06-30 | 2007-08-02 | 本田技研工業株式会社 | 顔認識システム及び方法 |
| US7734071B2 (en) | 2003-06-30 | 2010-06-08 | Honda Motor Co., Ltd. | Systems and methods for training component-based object identification systems |
| JP2011113125A (ja) * | 2009-11-24 | 2011-06-09 | Fuji Xerox Co Ltd | 情報処理装置及び情報処理プログラム |
Families Citing this family (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003524792A (ja) * | 1998-09-01 | 2003-08-19 | スイスコム アーゲー | 音声認識システムと方法 |
| GB2354100B (en) * | 1999-09-09 | 2003-12-24 | Sony Uk Ltd | Image identification apparatus and method of identifying images |
| US6535641B1 (en) * | 1999-10-28 | 2003-03-18 | The United States Of America As Represented By The Secretary Of The Navy | Class specific classifier |
| US6950555B2 (en) * | 2001-02-16 | 2005-09-27 | Parascript Llc | Holistic-analytical recognition of handwritten text |
| US6691110B2 (en) * | 2001-03-22 | 2004-02-10 | International Business Machines Corporation | System and method for discovering patterns with noise |
| US7031530B2 (en) * | 2001-11-27 | 2006-04-18 | Lockheed Martin Corporation | Compound classifier for pattern recognition applications |
| EP2784722A1 (en) * | 2004-07-26 | 2014-10-01 | Automotive Systems Laboratory, Inc. | Vulnerable road user protection system |
| US7653244B2 (en) * | 2005-02-22 | 2010-01-26 | Potts Wesley F | Intelligent importation of information from foreign applications user interface |
| US7646913B2 (en) * | 2005-12-19 | 2010-01-12 | Microsoft Corporation | Allograph based writer adaptation for handwritten character recognition |
| JP4961161B2 (ja) * | 2006-04-27 | 2012-06-27 | 株式会社日立ハイテクノロジーズ | 検査装置 |
| US7817857B2 (en) * | 2006-05-31 | 2010-10-19 | Microsoft Corporation | Combiner for improving handwriting recognition |
| US8660371B2 (en) * | 2010-05-06 | 2014-02-25 | Abbyy Development Llc | Accuracy of recognition by means of a combination of classifiers |
| JP6003492B2 (ja) * | 2012-10-01 | 2016-10-05 | 富士ゼロックス株式会社 | 文字認識装置及びプログラム |
| KR101853091B1 (ko) * | 2017-05-19 | 2018-04-27 | (주)뤼이드 | 기계학습이 적용된 사용자 답변 예측 프레임워크를 통한 개인 맞춤형 교육 컨텐츠 제공 방법, 장치 및 컴퓨터 프로그램 |
| TWI636404B (zh) * | 2017-07-31 | 2018-09-21 | 財團法人工業技術研究院 | 深度神經網路、使用深度神經網路的方法與電腦可讀媒體 |
| US10885370B2 (en) * | 2018-12-16 | 2021-01-05 | International Business Machines Corporation | Selecting object detections or recognitions using correctness mappings |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04305700A (ja) * | 1991-02-13 | 1992-10-28 | Toshiba Corp | パターン認識装置およびパターン認識方法 |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US3484746A (en) * | 1965-01-11 | 1969-12-16 | Sylvania Electric Prod | Adaptive pattern recognition system |
| AU7529981A (en) * | 1980-09-19 | 1982-03-25 | Hitachi Limited | Language analysis by pattern recognition |
| US4958375A (en) * | 1988-02-17 | 1990-09-18 | Nestor, Inc. | Parallel, multi-unit, adaptive pattern classification system using inter-unit correlations and an intra-unit class separator methodology |
| US5255342A (en) * | 1988-12-20 | 1993-10-19 | Kabushiki Kaisha Toshiba | Pattern recognition system and method using neural network |
| JP2940933B2 (ja) * | 1989-05-20 | 1999-08-25 | 株式会社リコー | パターン認識方式 |
| JPH07104952B2 (ja) * | 1989-12-28 | 1995-11-13 | シャープ株式会社 | パターンマッチング装置 |
| US5058180A (en) * | 1990-04-30 | 1991-10-15 | National Semiconductor Corporation | Neural network apparatus and method for pattern recognition |
| US5157733A (en) * | 1990-06-08 | 1992-10-20 | Fuji Photo Film Co., Ltd. | Radiation image processing apparatus, determination apparatus, and radiation image read-out apparatus |
| US5309525A (en) * | 1990-06-14 | 1994-05-03 | Canon Kabushiki Kaisha | Image processing apparatus using neural network |
| US5321773A (en) * | 1991-12-10 | 1994-06-14 | Xerox Corporation | Image recognition method using finite state networks |
| EP0550131A2 (en) * | 1991-12-31 | 1993-07-07 | AT&T Corp. | Graphical system for automated segmentation and recognition for image recognition systems |
-
1993
- 1993-08-26 JP JP5211386A patent/JP2673871B2/ja not_active Expired - Fee Related
-
1994
- 1994-08-26 EP EP94306325A patent/EP0640935A3/en not_active Withdrawn
-
1996
- 1996-09-09 US US08/707,888 patent/US5832108A/en not_active Expired - Fee Related
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH04305700A (ja) * | 1991-02-13 | 1992-10-28 | Toshiba Corp | パターン認識装置およびパターン認識方法 |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007521550A (ja) * | 2003-06-30 | 2007-08-02 | 本田技研工業株式会社 | 顔認識システム及び方法 |
| US7734071B2 (en) | 2003-06-30 | 2010-06-08 | Honda Motor Co., Ltd. | Systems and methods for training component-based object identification systems |
| US7783082B2 (en) | 2003-06-30 | 2010-08-24 | Honda Motor Co., Ltd. | System and method for face recognition |
| JP2011113125A (ja) * | 2009-11-24 | 2011-06-09 | Fuji Xerox Co Ltd | 情報処理装置及び情報処理プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2673871B2 (ja) | 1997-11-05 |
| US5832108A (en) | 1998-11-03 |
| EP0640935A2 (en) | 1995-03-01 |
| EP0640935A3 (en) | 1995-05-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2673871B2 (ja) | ニューラル・ネットワークによるパターン認識方法及び装置 | |
| Deore et al. | Devanagari handwritten character recognition using fine-tuned deep convolutional neural network on trivial dataset | |
| Hu et al. | Writer independent on-line handwriting recognition using an HMM approach | |
| Zhang et al. | Online and offline handwritten Chinese character recognition: A comprehensive study and new benchmark | |
| Senior et al. | An off-line cursive handwriting recognition system | |
| EP0539749B1 (en) | Handwriting recognition system and method | |
| US5787197A (en) | Post-processing error correction scheme using a dictionary for on-line handwriting recognition | |
| CA2375355A1 (en) | Character recognition system and method | |
| Ahmad et al. | Offline Urdu Nastaleeq optical character recognition based on stacked denoising autoencoder | |
| Almodfer et al. | Enhancing AlexNet for arabic handwritten words recognition using incremental dropout | |
| Ahmed et al. | Recognition of Urdu Handwritten Alphabet Using Convolutional Neural Network (CNN). | |
| Hemanth et al. | CNN-RNN based handwritten text recognition. | |
| Inunganbi et al. | Handwritten Meitei Mayek recognition using three‐channel convolution neural network of gradients and gray | |
| Sueiras | Continuous offline handwriting recognition using deep learning models | |
| Abuzaraida et al. | Recognition techniques for online arabic handwriting recognition systems | |
| Arafat et al. | Two stream deep neural network for sequence-based Urdu ligature recognition | |
| CN112508036A (zh) | 基于卷积神经网络和编码的手写数字识别方法 | |
| Senior et al. | An o-line cursive script recognition system using recurrent error propagation networks | |
| CN112200216A (zh) | 汉字识别方法、装置、计算机设备和存储介质 | |
| Alsallakh et al. | Arapen: An arabic online handwriting recognition system | |
| Anigbogu et al. | Hidden Markov models in text recognition | |
| Zhang et al. | Deep learning based handwritten Chinese character and text recognition | |
| CN111325270B (zh) | 一种基于模板匹配和bp神经网络的东巴文识别方法 | |
| Álvarez et al. | Fuzzy system for intelligent word recognition using a regular grammar | |
| KR0126800B1 (ko) | 한글필기체 온라인 문자인식 장치 및 방법 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| LAPS | Cancellation because of no payment of annual fees |