JPH0281160A - 信号処理装置 - Google Patents

信号処理装置

Info

Publication number
JPH0281160A
JPH0281160A JP63232845A JP23284588A JPH0281160A JP H0281160 A JPH0281160 A JP H0281160A JP 63232845 A JP63232845 A JP 63232845A JP 23284588 A JP23284588 A JP 23284588A JP H0281160 A JPH0281160 A JP H0281160A
Authority
JP
Japan
Prior art keywords
signal processing
unit
layer
learning
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63232845A
Other languages
English (en)
Other versions
JP2897220B2 (ja
Inventor
Atsunobu Hiraiwa
平岩 篤信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP63232845A priority Critical patent/JP2897220B2/ja
Priority to US07/406,733 priority patent/US5093899A/en
Priority to DE68929102T priority patent/DE68929102T2/de
Priority to EP89402544A priority patent/EP0360674B1/en
Priority to EP94107842A priority patent/EP0612033B1/en
Priority to DE68924822T priority patent/DE68924822T2/de
Publication of JPH0281160A publication Critical patent/JPH0281160A/ja
Priority to US07/727,871 priority patent/US5129039A/en
Application granted granted Critical
Publication of JP2897220B2 publication Critical patent/JP2897220B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 A 産業上の利用分野 本発明は、学習機能を有する信号処理装置に関し、特に
、所謂ニューラルネットワーク(NeuralNetw
ork :神経回路網)によるパックプロパゲーション
(Back propagation :逆転tl)学
習則に従った学習機能を有する信号処理装置に関する。
B 発明の概要 本発明は、ニューラルネットワークによるバソクプロバ
ゲーシリン学習則に従った学習機能を有する信号処理装
置において、ニューロンに対応する各ユニットによるリ
カレント回路網にて人力信号に対する信号処理を行うこ
とにより、上記リカレント回路網の結合状態の学習にて
、時間軸上で変動する音声信号等のシーケンシ中ルな時
系列パターンの特徴を抽出できるようにしたものである
C従来の技術 ニューラルネットワークの学習アルゴリズムであるバッ
クプロパゲーシゴン学習則r rParallelDi
stributed ProcessingJVol、
I The旧T Press1986や日経エレクトロ
ニクス1987年8月10日号。
No、427.ppH5−124等参照jは、第4図に
示すように、入力層(31)と出力層(33)の間に中
間層(32)を有する多層構造のニューラルネットワー
クに適用され、高速画像処理やパターン認識等の各種の
信号処理への応用が試みられている。
すなわち、第4図に示すように、このニューラルネット
ワークを構成する各ユニット(UJ)は、ユニット(U
、)からユニット(uJ)への結合係数W j lで結
合されるユニット(U t)の出力値0.の総和neJ
を例えばsigmoid関数などの所定の関数fで変換
された値0.を出力する。すなわち、パターンpの値が
入力層の各ユニット(U、)に入力値としてそれぞれ供
給されたとき、中間層および出力層の各ユニット(uj
)の出力値0.、は、Q、、: f j(net、J) ”fj(ΣWjム・0.ハ)・・・・・第1式なる第1
式で表される。
そして、入力JiJ(31)から出力層(33)へ向か
って、各ニューロンに対応するユニット(u=)の出力
値を順次計算していくことで、上記出力I! (33)
のユニット(uJ)の出力値0□が得られる。
バックプロパゲーション学習アルゴリズムにおいては、
パターンpを与えたときの、出力層(33)の各ユニッ
ト(U、)の実際の出力値0□と望ましい出力値Lpj
すなわち教師信号との二乗誤差の総和E。
を極小化するように、結合係数W4(を変える学習処理
を出力層(33〕から入力層(31)へ向かって順次に
行うことにより、教師信号の値t7に量も近い出力値o
、Jが上記出力層(33)のユニット(uJ)から出力
されるようになる。
そして、二乗誤差の総和E、を小さくする結合係数Wj
iの変化量ΔW j lを、 ΔWjl QCaEp /aW=t  ・・=・第3式
と決めると、上記第3式は、 ΔW、i”η・δ、j・Opi  ・・・・・・・・・
・第4式に変形することができる(この過程は上述の文
献を参照)。
ここで、ηは学習レート(定数)で、ユニットの数や層
の数さらには入出力の値等から経験的に決定される。ま
た、δ1はユニット(U、)のもつ誤差値である。
従って、上記変化量ΔWj、を決定するためには、上記
誤差値δ9、をネットワークの出力層から入力層に向か
って逆向きに求めていけば良い。出力層のユニッ)(U
J)の誤差値δ、Jは、δpj= (L sj  O、
J)f ’=(netj) ・・”・第5式なる第5式
で与えられ、中間層のユニッ)(u、)の誤差値δ、j
は、そのユニット(u、)が結合されている各ユニット
(um)  (この例では出力層の各ユニット)の結合
係数W k jおよび誤差値δ2.を用いて、 δeJ= f ’j(netj)Σδ、@Wkj  9
0.−0第6式なる再帰関数にて計算される(上記第5
式および第6式を求める過程は上述の文献を参照)。
なお、上記r ’ J(netJ)は、出力関数f t
(netj)の微分値である。
そして、変化量ΔW1.は、上記第5式および第6式の
結果を用いて上述の第4式によって求められるが、前回
の学習結果を用いて、 ΔWJILl141)=η・δ、J・Opi+α・ΔW
jil++1・・・・・・第7式 なる第7式にて求めることで、より安定した結果が得ら
れる。なお、αはエラーの振動を減らし、収束を速める
だめの安定化定数である。
そして、この学習を繰り返し行い、出力値Opjと教師
信号の値Lpjとの二乗誤差の総和E、が十分に小さく
なった時点で学習を完了するようにしていた。
D 発明が解決しようとする課題 ところで、上述の如きバンクプロパゲーション学習剤を
採用した従来の信号処理装置では、ニューロンに対応す
る各ユニットによるフィードフォワード結合だけの回路
網として構成されていたので、上記回路網の結合状態を
入力信号と教師信号から学習することによって入力信号
パターンの特徴を抽出する場合に、時間軸上で変動する
音声信号等のシーケンシ中ルな時系列パターンの特徴抽
出を行うことが困難であった。
そこで、本発明は、上述の如き従来の実情に鑑み、ニュ
ーロンに対応する各ユニットにて構成される回路網の結
合状態の学習により、時間軸上で変動する音声信号等の
シーケンシ中ルな時系列パターンの特徴を抽出できるよ
うにすることを目的とし、ニューロンに対応する各ユニ
ットによるリカレント回路網を備える新規な構成の信号
処理装置を提供するものである。
E 課題を解決するための手段 本発明は、それぞれニューロンに対応する信号処理を行
う複数のユニットにて構成された入力層、中間層および
出力層を備える信号処理部と、上記入力層に入力される
入力信号パターンに対する上記出力層の出力値と教師信
号として与えられる所望の出力値との誤差情報に基づい
て上記各ユニットの間の結合の強さの係数を上記出力層
側から上記入力層側に向かって順次に繰り返し計算し、
上記結合の強さの係数の学習処理を行う学習処理部とを
備える信号処理装置において、上記中間層および出力層
の各ユニットにそれぞれ遅延手段を設け、ル−プおよび
フィードバンクを含むリカレント回路網にて、上記信号
処理部を構成したことを特徴としている。
F 作用 本発明に係る信号処理装置では、それぞれ遅延手段を有
する中間層および出力層の各ユニットでループおよびフ
ィードバックを含むリカレント回路網を構成した信号処
理部にて入力信号に対する信号処理を行い、学習処理部
は上記信号処理部を構成している各ユニットによるリカ
レント回路網の結合状態の学習を教師信号に基づいて行
う。
G 実施例 以下、本発明の一実施例について、図面に従い詳細に説
明する。
本発明に係る信号処理装置は、その構成を第1図のブロ
ック図に概念的に示しであるように、入力信号パターン
pから出力値Opjを得るための信号処理部(10)と
、上記信号処理部(10)にて入力信号パターンpから
所望の出力値Lpjに最も近い出力値Opjを得るため
の学習を行う学習処理部(20)にて構成されている。
上記信号処理部(lO)は、第2図に示すように、少な
くとも入力層(Ll)と中間層(LM)と出力層(Lo
)の3層構造のニューラルネットワークにて構成され、
各層(Ll)、(L工)、(LO)がそれぞれニューロ
ンに対応する任意の個数x、y、zのユニッ) (u 
u〜u+x)+(uw+〜uwyL(uo+−uoJに
て構成されている。上記中間層(L、)および出力層(
LO)の各ユニット(u+++〜l1wy)+(uo+
〜uos)は、それぞれ遅延手段を備え、その出力値0
j111 を上記遅延手段を介して自己の入力とするル
ープ(LP)および他のユニットの入力とするフィード
バック(FB)を含むリカレント回路網を構成している
上記信号処理部(10)において、上記入力層(Ll)
の各ユニ7ト(u++〜u1、)に入力される入力信号
パターンpに対して、上記中間層(L工)の各ユニット
(U、、〜u、Iy)は、その入力の総和neJが、十
〇j       ・・・・・第8式なる第8式にて与
えられ、この入力の総和net4に対して、 0kj ltl  − ・・・・・・第9式 なる第9式のsigmoid関数にて示される出力値0
1(1,を与える。
さらに、上記出力層(Lo)の各ユニッ)(uo+〜u
 o、)は、その入力の総和net7が、十〇。
・・・・・・第1θ式 なる第10式にて与えられ、この人力の総和neJに対
して、 1+e なる第11式にて示される出力値00J IL)を与え
る。
ここで、上記θ、はしきい値、N I、NH,NOは、
上記各層(L l)、(LH)、(LO)の遅延手段の
数をそれぞれ示している。
また、上記学習処理部(20)は、上記信号処理部(1
0)に入力される1サンプルがX個で示され時間軸上で
変動するR個の入力信号パターンp(81に対する上記
出力層(Lo)の出力値0.1が、教師信号パターンと
して与えられる所望の出力値t1に最も近い値になるよ
うに、第3図のフローチャートに示す手順で、上記出力
FWl(Lo)側から上記入力層(Ll)側に向かって
上記各ユニッ)(UO+〜uoi)+(un+〜uny
L(u++〜u+x)の間の結合の強さの係数W j 
+を順次に繰り返し計算し、教師信号として与えられる
所望の出力値も2、と上記出力層(LO)の出力値0゜
jとの二乗誤差の総和LMSを十分に小さくするように
、上記結合係数W、iの学習処理を行う。
すなわち、上記学習処理部(20)は、先ず、ステンス
lでは、上記入力層(Ll)の各ユニット(u++〜u
18)に入力信号パターンp xrを与える。そして、
ステップ2では、上記入力信号パターンpxrに対する
上記中間層(L、)および出力N(Lo)の各ユニ7 
ト(u Nl〜u wy)+ (u ol−u ox)
の各出力値Opj 11 を算出する計算処理を行う。
次に、ステップ3では、上記教師信号パターンとして与
えられる所望の出力値t、と上記各出力(a O,、。
、に基づいて、上記出力層(Lo)側から上記入力層(
Ll)側に向かって上記各ユニット(u o+〜u o
x)+ (u □〜u Hy)の誤差値δ2、を算出す
る計算処理を行う。
上記ステップ3における計算処理では、上記出力11(
LO)の各ユニット(uo+〜uom)の誤差値δ。1
が、 δOj”(Lpj−oOj) 0oj(10oj)・・
・・・第12式 なる第12式にて与えられ、また、上記中間層(L工)
の各ユニッ)(u、、〜u 、y)の誤差値δ。
が、 δ)Ij= ONj(L  O1lj)ΣδQkW@j
・・・・・第13式 なる第13式にて与えられる。
次に、ステップ4では、上記各ユニット(ull〜u 
IIIL (u Nl〜u NF)l (u ol〜u
 am)に対するi番目のユニットからj番目のユニッ
トへの結合の強さの係数W、iの学習変数βjを各入力
値の二乗和にいき値としてlを加えた値の逆数にて示す
なる第14式にて算出する計算処理を行う。
さらに、ステップ5では、上記ステップ5にて算出した
学習変数β、を用いて上記各ユニット(u01〜10ヨ
)、 (u−+〜u 、y)+ (u 、〜U□)に対
するi番目のユニットからj番目のユニットへの結合係
数IAIBの変化量Δw1.を、 ΔWj i +al =η・β(δDi Opi)・・
・・第15式なる第15式にて算出するとともに、教師
信号に対する各ユニットの二乗誤差の総和LMSをなる
第16式にて算出する計算処理を行う、なお、上記第1
5式におけるηは学習定数である。
次の、ステップ6では、R個の入力信号パターンPar
について上記ステップ1からステップ6までの処理を行
ったか否かの判定を行い、その判定結果が「NO」であ
る場合には上記ステップlに戻り、また、その判定結果
がr YES 、  すなわち上記R1の入力信号パタ
ーンpつ、について上記各ユニット(u01〜uoJ+
(u□〜U□)、(u、〜u1い間の結合係数Wハの変
化量ΔWjiを全て計算したら、ステップ7に移り上記
出力層(Lo)にて得られる上記出力値0゜Jについて
収束条件の判定動作を教師信号として与えられる所望の
出力値j++jと上記出力値O0Jとの二乗誤差の総和
LMSに基づいて行う。
上記ステップ7の判定動作では、上記信号処理部(lO
)の出力層(Lo)に得られる出力値0.jが教師信号
として与えられる所望の出力値Lp=に最も近い債にな
っているか否かを判定する。上記ステップ7の判定動作
の結果がr YES J  の場合すなわち上記二乗誤
差の総和LMSが十分に小さくなって、上記出力値Oo
jが上記所望の出力値tpiに最も近い値になっている
場合には学習処理を完了し、その判定結果が「NO」の
場合にはステップ8の計算処理に移る。
そして、ステップ8の計算処理では、上記ステップ5に
おいて算出された上記結合係数Wj+の変化1ΔWj、
に基づいて、上記各ユニット(uo1〜uo、)+(u
o+〜u、ly)+(u++〜u+、I)間の結合係数
Wjiを次の第17式および第18式を用いて変更する
Δ Wji (鈴) 8Δ Wハ (1) + αΔ 
Wji、、−菫)・・・・第17式 %式% ・・・・第18式 そして、上記ステップ8の算出処理後に上記ステップ1
に戻って、上記ステップlからステップ6までの処理動
作を繰り返し行う。
この学習処理部(20)は、上述のステップ1ないしス
テップ8の動作を繰り返し行い、上記所望の出力値t9
、と上記出力値0゜、との二乗誤差の総和E、が十分に
小さくなり、上記信号処理部(10)の出力層(Lo)
に得られる出力値0゜、が教師信号として与えられる所
望の出力値Lpjに最も近い値になると、上記ステップ
7の判定動作により、学習処理を完了する。
この実施例の信号処理装置では、上述のようにループ(
LP)およびフィードバンク(FB)を含むリカレント
回路網を構成している上記信号処理部(10)の上記各
ユニット(u01〜u o、l)+ (u Ml 〜u
 Hy) +(u ++〜U□)間の結合係数W a 
+について、教師信号として与えられる所望の出力値j
ejに基づいて上記学習処理部(20)にて学習するの
で、時間軸上で変動する音声信号等のシーケンシャルな
時系列入力信号パターンPxrについても、その特徴を
上記学習処理部(20)による学習処理にて確実に抽出
することができる。従って、上記学習処理部(20)に
よる学習結果として得られる結合係数Wjiにて上記信
号処理部(10)の上記各ユニット(uo+〜Uos)
+(uN+−uHy)、(u++〜u□)間の結合状態
を設定するこによって、上記信号処理部(10)にて上
記時系列入力信号パターンp0に対して所望の信号処理
を施すことができる。
しかも、この実施例の信号処理装置では、上記各ユニッ
ト(u、I+−u、y)+(uo+〜uo*)において
入力値のOpiの二乗和の逆数にて示される上記学習変
数βにて学習定数ηを正規化することにより、学習レー
トを上記入力値Op+に応じて動的に変化させて、上記
結合の強さの係数wJ!の学習処理を行うことによって
、学習回数nを従来の学習処理の174〜1/lOに大
幅に減少させて、高速で安定に学習を行うことができた
H発明の効果 本発明に係る信号処理装置では、それぞれ遅延手段を有
する中間層および出力層の各ユニットでループおよびフ
ィードバックを含むリカレント回路網を構成した信号処
理部にて入力信号に対する信号処理を行い、学習処理部
は上記信号処理部を構成している各ユニットによるリカ
レント回路網の結合状態の学習を教師信号に基づいて行
うので、時間軸上で変動する音声信号等のシーケンシャ
ルな時系列パターンについても、その特徴を上記学習処
理部による学習処理にて抽出して、所望の信号処理を上
記信号処理部にて施すことができる。
【図面の簡単な説明】
第1図は本発明に係る信号処理装置の構成を概念的に示
すブロック図、第2図は上記信号処理装置の信号処理部
の構成を示すニューラルネットワークの一般的な構成を
示す模式図、第3回は上記信号処理装置を構成する学習
処理部における学習処理過程を示すフローチャートであ
る。 第4図はバックブロッパゲーシッン学習則の適用される
ニエーラルネットワークの一般的な構成を示す模式図で
ある。 (10)・・・・・・・・・・・信号処理部(20)・
・・・・・・・・・・学習処理部(Ll)・・・・・・
・・・・入力層 (LH)・・・・・・・・・・中間層 (Lo)・・・・・・・・・・出力層 (u+t〜u+++L(uwt〜 u IIy)+(u
o+〜uoJ  ・・・+−・−・e、ユニット

Claims (1)

  1. 【特許請求の範囲】 それぞれニューロンに対応する信号処理を行う複数のユ
    ニットにて構成された入力層、中間層および出力層を備
    える信号処理部と、上記入力層に入力される入力信号パ
    ターンに対する上記出力層の出力値と教師信号として与
    えられる所望の出力値との誤差情報に基づいて上記各ユ
    ニットの間の結合の強さの係数を上記出力層側から上記
    入力層側に向かって順次に繰り返し計算し、上記結合の
    強さの係数の学習処理を行う学習処理部とを備える信号
    処理装置において、 上記中間層および出力層の各ユニットにそれぞれ遅延手
    段を設け、ループおよびフィードバックを含むリカレン
    ト回路網にて、上記信号処理部を構成したことを特徴と
    する信号処理装置。
JP63232845A 1988-09-17 1988-09-17 信号処理装置 Expired - Lifetime JP2897220B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP63232845A JP2897220B2 (ja) 1988-09-17 1988-09-17 信号処理装置
US07/406,733 US5093899A (en) 1988-09-17 1989-09-13 Neural network with normalized learning constant for high-speed stable learning
EP89402544A EP0360674B1 (en) 1988-09-17 1989-09-15 Signal processing system and learning processing system
EP94107842A EP0612033B1 (en) 1988-09-17 1989-09-15 learning processing system
DE68929102T DE68929102T2 (de) 1988-09-17 1989-09-15 Lernverarbeitungssystem
DE68924822T DE68924822T2 (de) 1988-09-17 1989-09-15 Signalverarbeitungssystem und Lernverarbeitungssystem.
US07/727,871 US5129039A (en) 1988-09-17 1991-07-10 Recurrent neural network with variable size intermediate layer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63232845A JP2897220B2 (ja) 1988-09-17 1988-09-17 信号処理装置

Publications (2)

Publication Number Publication Date
JPH0281160A true JPH0281160A (ja) 1990-03-22
JP2897220B2 JP2897220B2 (ja) 1999-05-31

Family

ID=16945705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63232845A Expired - Lifetime JP2897220B2 (ja) 1988-09-17 1988-09-17 信号処理装置

Country Status (1)

Country Link
JP (1) JP2897220B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0451372A (ja) * 1990-06-20 1992-02-19 Fujitsu Ltd ニューロコンピュータを用いた動作認識装置
WO1993020552A1 (fr) * 1992-03-30 1993-10-14 Seiko Epson Corporation Appareil de reconnaissance vocale utilisant un reseau neuronal, et procede d'apprentissage associe
US5787393A (en) * 1992-03-30 1998-07-28 Seiko Epson Corporation Speech recognition apparatus using neural network, and learning method therefor
US6070139A (en) * 1995-08-21 2000-05-30 Seiko Epson Corporation Bifurcated speaker specific and non-speaker specific speech recognition method and apparatus
US6151592A (en) * 1995-06-07 2000-11-21 Seiko Epson Corporation Recognition apparatus using neural network, and learning method therefor
JP2002519720A (ja) * 1998-06-24 2002-07-02 フォニックス コーポレイション 多層ネットワークを用いた信号分類の方法と装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0451372A (ja) * 1990-06-20 1992-02-19 Fujitsu Ltd ニューロコンピュータを用いた動作認識装置
WO1993020552A1 (fr) * 1992-03-30 1993-10-14 Seiko Epson Corporation Appareil de reconnaissance vocale utilisant un reseau neuronal, et procede d'apprentissage associe
US5787393A (en) * 1992-03-30 1998-07-28 Seiko Epson Corporation Speech recognition apparatus using neural network, and learning method therefor
US5809461A (en) * 1992-03-30 1998-09-15 Seiko Epson Corporation Speech recognition apparatus using neural network and learning method therefor
US6151592A (en) * 1995-06-07 2000-11-21 Seiko Epson Corporation Recognition apparatus using neural network, and learning method therefor
US6070139A (en) * 1995-08-21 2000-05-30 Seiko Epson Corporation Bifurcated speaker specific and non-speaker specific speech recognition method and apparatus
JP2002519720A (ja) * 1998-06-24 2002-07-02 フォニックス コーポレイション 多層ネットワークを用いた信号分類の方法と装置

Also Published As

Publication number Publication date
JP2897220B2 (ja) 1999-05-31

Similar Documents

Publication Publication Date Title
Dominguez-Morales et al. Deep spiking neural network model for time-variant signals classification: a real-time speech recognition approach
JP3329806B2 (ja) ニューラルネット構築装置
Watanabe et al. Learning algorithms of layered neural networks via extended Kalman filters
JPH0281160A (ja) 信号処理装置
JP3374476B2 (ja) ニューラルネットワーク構築方法
US5630020A (en) Learning method and neural network structure
JPH04237388A (ja) ニューロプロセッサ
JPH0581227A (ja) 神経系回路網信号処理装置及び信号処理方法
JPH02231670A (ja) ニューラル・ネットワークの学習装置
Wan et al. Introducing cost-sensitive neural networks
JPH11265197A (ja) 可変入力神経網を利用した音声認識方法
Mohanty et al. Recognition of voice signals for Oriya language using wavelet neural network
JP2654686B2 (ja) ニューラルネットワーク
JP3412700B2 (ja) 神経回路網型パターン学習方法およびパターン処理装置
Seo et al. Structure minimization using the impact factor in neural networks
JPH0281161A (ja) 信号処理装置
JPH0981535A (ja) ニューラルネットワークの学習方法
JPH09138786A (ja) ニューラルネットワークの学習装置
Rashmi et al. Feed forward multilayer neural network models for speech recognition
JPH0451372A (ja) ニューロコンピュータを用いた動作認識装置
Kitazoe et al. Speech recognition using a stereo vision neural network model
Yazdchi et al. A new bidirectional neural network for lexical modeling and speech recognition improvement
JP2607351B2 (ja) 多層パーセプトロンの神経回路網の効率的な学習のための誤差信号の発生方法
Мигалев et al. Modeling the Learning of a Spiking Neural Network with Synaptic Delays
JP3343626B2 (ja) ファジィ推論のためのニューラルネットワーク

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080312

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090312

Year of fee payment: 10

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090312

Year of fee payment: 10