【発明の詳細な説明】
ニューラルネットワークにおける入力量の
準備処理方法および準備処理装置
本発明は、著しく異なる時定数をもつダイナミックプロセスのニューラルモデ
リングのための方法に関する。
ニューラルネットワークは多様な技術分野で採用されている。複雑な技術的関
係および不十分な情報から判定を下そうとするような状況ではいずれにおいても
、ニューラルネットワークは格別優れたものとして適していることが判明してい
る。1つまたは複数の出力量を形成するため、ニューラルネットワークへたとえ
ば1つまたは複数の入力量が供給される。この目的でこの種のネットワークはま
ずはじめに特有の適用事例に合わせて訓練され、次に汎化され、その後、訓練デ
ータとは異なる別のデータセットを用いて妥当性が検査される。ニューラルネッ
トワークが多くの適用事例に対し格別優れたものとして適している理由は、ニュ
ーラルネットワークは汎用的に訓練可能であることによる。
しかしながら、ニューラルネットワークの利用に付随してしばしば生じる問題
点は、ニューラルネットワークの入力量の個数が多すぎてしまうことがよく起こ
り、つまりはニューラルネットワークがそのような適用事例に関して不必要に複
雑になってしまう点にある。殊に、過度に大きいニューラルネットワークである
と訓練中、汎化データにおいて所要パフォーマンスが得られない。したがって訓
練においては、この問題構造の代わりに適用事例を暗記させることが多い。この
ため実践では、可能な入力量の個数を必要なものにできるかぎり制限することが
望ましく、つまりは求めるべき出力量に対し最も大きな作用をもつ入力量に制限
することが望ましい。また実践においては、様々な時点で発生する入力量をニュ
ーラルネットワークへ供給することになるというような問題点も生じる可能性が
あり、そのような入力量の一部分は時間や日付に関して互いに離れたものである
。このような事例のためには、たとえば再帰的ニューラルネットワークが使用さ
れる。このようなネットワークは内部的に各ニューロン間でフィードバックパス
を有しており、これによって各ニューロンは発生した入力量に関する一種の記憶
力を構築することができる。しかし、いっそう単純な処理を行わせる理由で、殊
にいっそう容易に訓練可能であることから、使用フィールドにおいてフィードフ
ォワードネットワークが望ましく思われることが多い。
工業的なプロセスにおいて、殊に生化学的なプロセスにおいては、それぞれ著
しく異なる時定数をもつ種
々の部分プロセスがしばしばいっしょに作用する。化学反応は一瞬のうちに行わ
れることが多い。微生物による物質の分解や合成および細菌類ないし真菌類の成
長と死亡の場合には、しばしば時間単位または日付単位の時定数が生じる。殊に
、帰還路および一時蓄積器を有する物質循環路の存在するシステムでは、時定数
が何時間や何日もの範囲で生じる。様々な速さで進行する部分プロセスを別個に
処理するのは不可能であることが多い。つまりたとえば、汚水処理において個別
に進行するプロセス間では密な結合が生じる。しかも、別個のニューラルモデリ
ングに対する前提として個々のプロセス”間”の測定値を得ることはできないか
、あるいは多大なコストをかけてしか得られない。このことは殊に、浄水プラン
トで汚水処理を行う際に進行する生化学的なプロセスにおいてあてはまる。ニュ
ーラルネットワークによる該当するプロセス情報の選択と関連して入力データを
適切に表現することは、種々異なる時定数の同時動作をニューラル的にモデリン
グできるようにするための前提条件である。
著しく急速に進行する部分プロセスをニューラル的にモデリングできるように
するためには、著しく高いサンプリングレートでデータを得なければならず、他
方、緩慢に進行するプロセスをモデリングするためには、相応にかなり前まで過
去に遡る範囲にわたってデータを入力値としてフィードフォワードネットワーク
へ加えなければならない。この方式の有する欠点とは、僅かな個数の測定量であ
ってもニューラルネットワークはすでにかなりの個数の入力量をもつことであり
、つまりはかなりの量の適応可能なパラメータをもつことである。任意のパラメ
ータの個数がそのように多いと、ネットワークはデータに相応しいものよりも過
度に複雑になり、”過剰適応(Overfitting)”の傾向をもつことになる/HFZ1/,
/HFZ2/。
したがってニューラルネットワークはたしかに、訓練に用いられる各データポ
イントにおいてはデータをきわめて良好に近似することができる。訓練に用いら
れない”汎化データ”においては、過度に多い適応可能なパラメータをもつネッ
トワークの性能は劣ったものとなる。著しく異なる時定数を有するプロセスをニ
ューラルモデリングするための別の可能性として、再帰的ニューラルネットワー
ク(RNN)が挙げられる。ニューラルネットワークで実現されるフィードバッ
クゆえに、RNNは過去のデータの情報を蓄積し、したがって長い時定数ないし
フィードバックを有するプロセスをモデリングすることができる。RNNの欠点
は、たとえば逆伝播のような簡単な学習プロセスを用いることができず、その代
わりにたとえばリアルタイムの再帰的学習(Real Time Recurrent Learning,RT
RL)や逆伝播スルータイム(Backpropagation Through Time,BPTT)のような特
別な学習プロセスを使用し
なければならないことである。殊にデータポイントの個数が多い場合、RNNを
訓練するのは困難であり、数値的に不安定な傾向にある/Ster/。
上述の従来技術には、種々異なるニューラルネットワークやその技術が詳細に
説明されている。該当する他の従来技術は知られていない。
本発明の課題は、ニューラルネットワークにおいて時間に伴って発生する入力
量の個数を著しく低減できるようにした方法および装置を提供することにある。
その際にたとえば本発明による方法および本発明による装置によって、フィード
フォワードニューラルネットワークに対しいわば記憶力を実現させるように構成
すべできある。しかも本発明による方法が、種々異なる時定数をもつ化学的プロ
セスでは免れない特別な要求にも適合するよう構成すべきである。
この課題は、請求項1の特徴を備えた方法および請求項13の特徴を備えた制
御装置により解決される。
従属請求項には本発明の有利な実施形態が示されている。
本発明による方法の格別な利点は、それによってプロセスデータを著しく長い
期間にわたり遡って考慮できることである。これは著しく長い期間にわたって遡
った測定値に対し著しく大きい測定インターバルを利用し、畳み込みよってその
インターバルから適切な平均値を形成することによって可能となる。畳み込み曲
線およびインターバルの大きさを適切に選定することにより、個々の入力値を考
慮するにあたり時間に関して所定の抑圧を取り込むことができる。これはたとえ
ば、かなり前に遡った測定値は著しく長いインターバルにわたり平坦な鐘状曲線
を用いて畳み込むことにより可能となる。
有利なことに本発明による方法によれば、時間に依存する入力量を精確に考慮
するために、種々異なるインターバルの大きさが採用される。それらのインター
バルは過去に向かうにつれていっそう大きくなり、その際にたとえば有利である
のは、同じ幅をもつ種々のインターバルグループを形成することもできることで
ある。
有利なことに本発明による方法によれば、互いにオーバラップし合うようにイ
ンターバルが選定される。その理由は、そのようにすることでニューラルネット
ワークのすべての入力量を求めるために、時系列中の各値が利用されるからであ
る。この場合、時系列中の個々の値の重み付けは、たとえば個々のインターバル
のオーバラップ範囲が大きくなればなるほどいっそう均一化される。
有利であるのは、インターバル内で時系列を畳み込む鐘状曲線の幅を、その大
きさがインターバルの幅に相応するように選定することである。それというのは
このようにすることで、実践においてインターバル内
で捕捉された値に相応する適切な畳み込み結果が得られるかである。
有利なことに本発明による方法によれば、ニューラルネットワークの入力デー
タが種々異なる時定数をもつプロセスの時系列として形成され、その時系列のイ
ンターバル分割においてそれらの時定数が考慮され、その際にインターバル幅が
その時定数ないし複数の宛異数の倍数に対応するように構成されている。このよ
うにすることで、監視すべきないし制御すべきプロセスの時間特性を本発明によ
る方法によってきわめて精確に近似できるようになる。
有利には、本発明による方法はフィードフォワードニューラルネットワークを
用いることで実行される。それというのはこれは記憶力をもたないからであり、
本発明による方法によれば過去については、それらのネットワークに対する記憶
力を補うかたちで考慮される。
ニューラルネットワークを迅速かついっそう良好に訓練できるようにするため
、ネットワークの入力量を所定の範囲に正規化するのが有利である。
また有利には、本発明による方法はネットワークの訓練においてもその運用に
おいても使用される。なぜならば、そのようにすることによってのみ、学習した
動作により実践においても所望の結果が得られるようになるからである。
格別有利には本発明による方法により、種々異なる時定数をもつ化学的プロセ
スが制御され、これによりたとえば浄水プラントの入力データを得ることができ
る。なぜならば浄水プラントでは、急速に変化する時定数のほかに72時間まで
の時定数が役割を果たすことが多いからである。
さらに有利には、本発明による装置には測定センサ、このセンサの測定値を記
憶するメモリ、たとえば本発明による方法に従って測定値を準備処理するプリプ
ロセッサ、ならびにニューラルネットワークが設けられており、このニューラル
ネットワークは形成された入力データを評価し、それらのデータからエフェクタ
へ供給される値が形成され、それによって化学的プロセスが制御される。このよ
うにして、著しく簡単な制御技術的装置構成が実現される。
次に、図面を参照しながら本発明について詳細に説明する。
図1は、本発明による方法の概略を示す図である。
図2は、本発明による方法に従って時系列からの測定値を処理する実例を示す
図である。
図3は、種々異なる幅のインターバルを用いた場合の効果を示す図である。
図4は、本発明による装置の1つの例を示す図である。
図5は、本発明による方法に従って作動する汚水処
理装置のブロック回路図である。
図1には、本発明による方法を表すものとしてブロック図が示されている。殊
にここにはニューラルネットワークNN(Zt)が示されている。さらに、かな
り前まで過去に遡るニューラルネットワークにおける入力値yt,yt-1...の時系
列が書き込まれている。このニューラルネットワークには入力量Z11〜Z32が供
給される。したがって未来に位置する入力値yt+1は出力量として予測すべきも
のである。
図示されている時系列yはたとえばそれぞれ異なる時点で離散的に検出された
測定値発生器の測定値であり、この測定値発生器はニューラルネットワークに対
する入力量を検出するものである。この実例に示されているように、最初の4つ
の測定値Z11〜Z14はニューラルネットワークへダイレクトに転送され、したが
って目下の入力量に対する必要量を殊に強く考慮することができる。過去に向か
ってさらに遡る値については、たとえばインターバル12と13が規定されてい
る。これらのインターバルに対し、たとえばこの場合には9つの入力量のインタ
ーバル幅が選定されている。インターバル12はたとえば鐘状曲線G2で畳み込
まれ、これによって畳み込みの結果、最大値として測定値Z22が生じるようにな
る。この値は、インターバル12内に存在するすべての入力量を表すものとして
ニューラルネットワークへ転送される。このプロセス
は、ニューラルネットワークに対し入力量Z21およびZ23を探すのと同様にして
行われる。ここで注意しなければならないのは、個々のインターバル12および
13はオーバラップしていることである。有利にはこのオーバラップは、ニュー
ラルネットワークの入力量を形成するための時系列における各々の測定値を考慮
できるよう、あらかじめ設定される。さらに図1に示されているように、インタ
ーバルの幅は過去に向かうにつれて増大する。つまり、測定値ないし時系列中で
捕捉された入力量が過去に遡れば遡るほど、インターバルの幅が広くなるよう選
択され、このことによってそれらの値に関するただ1つの統計的な表現だけを捉
えることができるようになる。畳み込みに用いられる鐘状曲線の幅がインターバ
ルの幅にほぼ対応するものとすれば、インターバルG4はたとえば19個の測定
値の幅を有することになる。
ニューラルモデルの開発にあたりフレキシビリティを高め、さらに学習プロセ
スの安定性を向上させるため、本発明による方法においてはフィードフォワード
ニューラルネットワークを利用することにする。
本発明による方法の基本的な着想は、著しく小さい時定数をもつ部分プロセス
のためにしかすぐ前の過去からの精確な値を必要としないことにある。著しく長
い時定数をもつプロセスの場合には、一般にi番目の測定値とi+1番目の測定
値との間の差は意味をもた
ない。したがって、比較的長い期間にわたって平均化された少数の値を利用する
ことができる。
この基本的な着想から以下のような方法が得られる。一連の入力データは、比
較的大きい時間遅延された”ウィンドウ”と比較的小さい時間遅延された”ウィ
ンドウ”から成るハイアラーキにより表現される。この目的で、本来の時系列は
たとえばガウス特性曲線を用いることで種々異なる変量に応じて畳み込まれる。
著しく大きい変量を有する部分プロセスのためのデータを表現するために、大き
い変量のガウス特性曲線で畳み込まれた時系列が相応に大きい時間値の分だけシ
フトされる。したがって長い時定数にもかかわらず僅かな入力量によって、ニュ
ーラルネットワークに対しすべての実質的な情報を表すことができる。これと同
時に、小さい変量のガウス特性曲線で畳み込まれ小さい値だけシフトされた時系
列によって、小さい時定数をもつ部分プロセスの進行を十分に精確に表現するこ
とができる。著しく急速に進行するプロセスは、畳み込まれていない時系列とす
ぐ前の値をそのまま用いることで表現できる。
時系列
yt,yt-1...yt-N
からこの時系列における次の値yt+1をニューラルネットワークにより予測する
ものとする。この目的で、
を形成する。ここで、
i=1,...,M: ガウス特性曲線の幅
j=1,...,Ki: 遅延
Ki<=N/Δi: 各iに対し与えられる値の個数
である。
i=1のときたとえば以下が選定される:
σi=0,Δi=1,Ki=4
i=2のときたとえば以下が選定される:
σi=10,Δi=10,Ki=3
この場合、相応に比較的大きい平均化が行われる。そして要素zi,jをもつマ
トリックスZを形成し、このマトリックスはニューラルネットワークの入力を表
すものである。したがってニューラルネットワークNNの予測を以下のように記
述できる:
yt+1=NN(Zt)
この場合、畳み込みのためのガウス特性曲線の利用は、時系列の”平滑化”を
実現させる1つの可能性にすぎない。システムおよびシステム内に存在する時定
数の情報によって、畳み込みのためのガウス特性曲線の変量および時間シフトの
大きさを適切に選定できるようになり、さらにニューラルネットワークに対し僅
かな入力で重要な情報を与えることができるようになる。有利には、ニューラル
処理の前に入力量zi,jのスケーリングが行われる。このスケーリングによって
学習の速度が上がり、著しく小さい入力量に属するパ
ラメータの適応化の際の”過剰制御”が阻止される。
本来のデータ列のほかに、訓練にあたり大きく時間シフトされ大きな変量のガ
ウス特性曲線で畳み込まれた入力量をまずはじめにアクティブにすることで、き
わめて良好なモデリングが可能である。”いっそう弱く”畳み込まれ僅かにしか
時間シフトされない入力値をアクティブにすることによって、ニューラルネット
ワークに対し段階的に付加的な情報が与えられる。すべての入力量Zi,jを用い
てニューラルネットワークの訓練が行われた後、入力量に対するネットワーク出
力の感度が検査される。感度分析/ReZi/に基づき、プロセスのモデリングにとっ
て重要な入力量Zi,jがニューラルネットワークによって選択される。そしてそ
れらの入力量だけがネットワークの訓練に用いられる。ネットワークパラメータ
の個数ならびに複雑さをこのように制限することによって、プロセスをきわめて
良好にモデリングすることができる。
たとえば、大きさに関して著しく分散したネットワークパラメータは消去され
る。なぜならば、それらはネットワークス出力に対し重要な寄与をもたらすもの
ではないからである。
図1において殊に注目しなければならないのは、出力量yt+1を求めるために
、すべての値つまりZ11〜Z32のすべてが同じ時点でニューラルネットワークへ
導かれることである。本発明による方法は畳み込みに
よって過去の値も考慮しているので、有利なことにフィードフォワードニューラ
ルネットワークであっても記憶力が実現される。したがって、フィードフォワー
ドニューラルネットワークにとって記憶力をもたないというこのネットワークの
欠点が除かれ、この場合、簡単に訓練することができるというフィードフォワー
ドネットワークの利点はそのまま保持される。さらに注目しなければならないの
は、本発明による手順によれば個々のインターバル内に位置する値を複数のイン
ターバルに対応づけることができることであり、したがってその値に対しそれぞ
れ異なる畳み込み関数により畳み込みを行うことができる。
図2には、3つのダイアグラムD1〜D3に基づきニューラルネットワークの
入力量が示されており、これらはそれぞれ異なる幅の鐘状曲線で畳み込まれる。
D1には、たとえば入力量10と20が本来の状態で示されている。D2の場合
、D1におけるこれらの値に対し、たとえば図1のG1で示されているような狭
い幅の鐘状曲線で畳込みが行われ、これにより少し前に遡る過去からの入力量に
対する尺度を得ることができる。畳み込み結果100はD1の入力10を表し、
畳み込み結果200はD1の入力20を表している。D3には、D1の入力に対
したとえば図1のG4で示したような比較的広い幅の畳み込み関数で処理した様
子が示されている。この場合、畳み込み結果1000
はD1の値10に対応し、畳み込み結果2000はD1の値20に対応する。そ
れぞれ異なるこれらのダイアグラムからはっきりとわかることは、D1からD3
へ経過する間に個々の値がしだいに平均化されていき、移行部分が互いに連続的
に整合されることである。殊にD3には、1000と2000が互いにほぼ滑ら
かに移行していることが良好に示されている。D3のかたちによる時系列の畳込
みによって殊に考慮されるのは、フィードフォワードニューラルネットワークは
記憶力をもっておらず、かなり過去まで遡る値をその種のネットワークのための
入力量として考慮しなければならないことである。たとえばそれらの値の畳込み
のために、大きな変量のガウス特性曲線が用いられる。畳み込み関数の幅として
つまりたとえばガウス特性曲線の変量として、あるプロセスにおける既知の時定
数の倍数を用い、それによってニューラルネットワークの上記ような入力量を導
出するならば、本発明による方法によって格別優れた結果が得られる。それとい
うのは、このことによって重要な入力量に対するフィルタリング作用が得られる
からである。
図3には、ニューラルネットワークの学習特性曲線が示されている。右側に向
かって学習サイクの回数がプロットされ、上方に向かってエラーがプロットされ
ている。この場合、TRで訓練曲線の経過特性が示されており、GENで汎化曲
線の経過特性が、VALで
妥当性曲線の経過特性がそれぞれ示されている。ここにはっきりと示されている
ことは、約22のところで3つの曲線すべてが著しく下降し始めていることであ
る。この時点は、現在の入力量だけでなくプロセスの時定数を用いて畳み込まれ
た過去からの入力量もネットワークへ与えられた時点を正確に表している。ここ
でわかるように、3つの領域すべてにおいてエラーの劇的な低減が生じている。
図4には、化学的プロセスのための本発明による制御装置の1つの実例が示さ
れている。詳細にはこの制御装置STRには、センサSENS、メモリMEM、
プリプロセッサPRP、エフェクタEFFが設けられている。センサは接続ライ
ンV400を介してメモリMEMと接続されており、このメモリは接続ラインV
300を介してプリプロセッサPRPと接続されている。プリプロセッサはその
データを、接続ラインV200を介してニューラルネットワークNNへ転送する
。ニューラルネットワークはそれらのデータから、エフェクタを用いて化学的プ
ロセスを変化させるための出力量を発生させ、それらのデータを接続ラインV1
00を介してエフェクタへ転送する。本発明によるこの制御装置のメモリには、
離散的な時点でセンサから送出されたデータが格納される。プリプロセッサはそ
れらのデータから、複数のインターバルにおいてかなり遡ったセンサの測定結果
の値をまとめることで、ニ
ューラルネットワークNNのための入力量を形成する。ここで上記のインターバ
ルの幅は、それらの測定値が過去に遡れば遡るほど広がるように選定される。次
にプリプロセッサによって、釣り鐘状の特性または別のガウス関数により対象と
するインターバルの畳込みを実行し、その結果からインターバル全体に対する代
表値が獲得する。この値はインターバルにおける残りの値を代表する入力量とし
て、たとえば別のインターバル領域から本発明に従って抽出された別の値ととも
に、あるいはメモリからニューラルネットワークへと転送される別の値とともに
、ニューラルネットワークNNへ供給される。このニューラルネットワークNN
は化学的プロセスのために特別に訓練されたものであり、接続ラインV200を
介して得られたそれらの入力量を、化学的プロセスに作用を与えることのできる
入力量を形成するために評価する。この目的でたとえばエフェクタEFFが設け
られている。たとえば浄水プラントにおいてセンサにより下水の燐酸塩含有量が
検出され、下水中に存在する燐酸塩を沈降させることになる沈降剤がエフェクタ
によって調量される。この場合に殊に望ましいのは、反応残留物が残らないよう
沈降剤を化学量論的なバランスで与えることである。
図5には化学的プロセスのための実例として、本発明による方法ないし本発明
による制御装置によって制御可能な浄水プラントが示されている。下水中に含ま
れている燐酸塩を除去するために、一般的に3価の金属イオンを有する沈降剤が
作用物質として用いられる。以下の差分方程式によって、たとえば浄水プラント
における活性汚泥槽の下水中に含まれている燐酸塩の除去を簡単に表すことがで
きる:
この場合、Qは貫流する下水量を表し、Vは槽の容積を、CPは下水中の燐酸
塩濃度を表す。ニューラルネットワークの訓練のために、たとえば実際の浄水プ
ラントに基づき求められた実践データを用いることができる。
図5には実例として、燐酸塩除去のシーケンスが示されている。沈降剤添加後
に後処理澄明槽NKB内に沈積した活性スラッジ混合物/沈降スラッジ混合物自
体は、燐酸塩によって沈降する特性を有している。これは活性汚泥法において活
性汚泥槽へ活性化されて戻される。その沈降作用はたとえば約3日と推定され、
そのことからこのシステム内で役割を果たす大きな時定数であると識別できる。
したがってたとえば本発明による方法のための時系列における値を、3日間すな
わち72時間によって畳み込むことができる。この沈降特性によって、沈降剤の
消費が低減される。活性汚泥槽および後処理除濁槽における下水の平均的滞留期
間は、たとえば約8時間である。燐酸塩の沈降はたいてい用いられている同時沈
降において生じるが、これ
は1分の何分の1かのことである。このように様々な時定数が同時に作用するこ
とをニューラルモデリングできるようにするためには、入力データを適切に表す
必要がある。
ニューラルネットワークのための入力データはたとえば下水量qzu、燐酸塩
濃度cpzu、燐酸塩の量MLP、沈降剤の量CFMzuのような変量である。
各入力データはたとえば、比較的大きい時間遅延されたウィンドウと比較的小さ
い時間遅延されたウィンドウから成るハイアラーキによって表される。平滑化す
るために本来の時系列がまずはじめに、それぞれ異なる大きさの変量たとえば2
4時間、8時間、2時間のガウス特性曲線によって畳み込まれる。次に、畳み込
まれた時系列は、時系列におけるすべての代表値を同時にニューラルネットワー
クへ供給できるようにするため、畳み込まれていない時系列に対し一定の期間だ
けずらされる。続いて、それらの時系列はたとえばインターバル[−1,1]に
合わせてスケーリングされる。そのようにして導出された入力量により過去の平
均化された測定値が表現され、システムに内在する種々の時定数にも係わらずニ
ューラルネットワークに対しそのシステムのモデリングを行うことができる。
燐酸塩除去の問題のためにニューラルネットワークはたとえば推計学的学習に
より訓練され、その際、学習レートは重み付け変化の変量によって決まる。実験
結果により示されているようなこの問題においては、ラジアル基底関数(RBF
)を有するモデルはその汎化能力に関して多層パーセプトロン(MLP)よりも
劣っている。有利には最良のモデリングはMLPを用いて達成でき、これはまず
はじめに入力データの線形の写像が訓練されたものである。この目的で有利であ
るのは、これをここではδ=24時間、δ=8時間、δ=2時間で畳み込まれ互
いにアクティブにされて時間シフトされたネットワーク入力量によって訓練し、
その際にそれらに属する重み付けをそれぞれ収束するまで訓練することである。
その後、たとえばネットワークの複雑性を基地の方式によって低減する。これに
は隠れ層において高度に相関したノードの融合、関係の少ない入力量の消去、大
きさに関して強く分散した重み付けの除去が含まれる。このようなネットワーク
の最適化によりたとえば重み付けの75%を取り除くことができ、妥当性集合に
おける汎化能力を著しく高めることができる。
本発明による方法の評価によれば、燐酸塩沈降において進行するプロセスを格
別良好にモデリングできることが示された。また、このネットワークによって雨
天、燐酸塩の急激な変化、乾燥した天候に対し本来のデータに基づききわめて良
好な汎化能力が達成される。とりわけ有利であるのは、活性汚泥槽の流出口にお
ける燐酸塩の濃度を表すネットワーク出力に対する高
度な汎化能力である。そしてこの個所において、同時沈降に際して沈降剤が添加
される。たとえば燐酸塩濃度というネットワーク入力量は、この場合には下水の
伝導性や濁りのような相関され容易に測定可能な代替量と置き換えられる。
【手続補正書】特許法第184条の8第1項
【提出日】1996年9月4日
【補正内容】
したがってニューラルネットワークはたしかに、訓練に用いられる各データポ
イントにおいてはデータをきわめて良好に近似することができる。訓練に用いら
れない”汎化データ”においては、過度に多い適応可能なパラメータをもつネッ
トワークの性能は劣ったものとなる。著しく異なる時定数を有するプロセスをニ
ューラルモデリングするための別の可能性として、再帰的ニューラルネットワー
ク(RNN)が挙げられる。ニューラルネットワークで実現されるフィードバッ
クゆえに、RNNは過去のデータの情報を蓄積し、したがって長い時定数ないし
フィードバックを有するプロセスをモデリングすることができる。RNNの欠点
は、たとえば逆伝播のような簡単な学習プロセスを用いることができず、その代
わりにたとえばリアルタイムの再帰的学習(Real Time Recurrent Learning,RT
RL)や逆伝播スルータイム(Backpropagation Through Time,BPTT)のような特
別な学習プロセスを使用しなければならないことである。殊にデータポイントの
個数が多い場合、RNNを訓練するのは困難であり、数値的に不安定な傾向にあ
る/ster/。
国際公開WO−A−94/17489号から、訓練モードにおいて準備処理パ
ラメータおよび時間遅れがが定められるようにした逆伝播ネットワークが公知で
ある。そして動作モードでは、動作データが準備処理パラメータといっしょに処
理され、定められた時間遅
れによって入力データとしてシステムに供給される。この種のネットワークは、
入力データが種々異なるタイムスケールに基づくような適用用事例に殊に適して
いる。
雑誌 IEEE EXPERT,Bd.8,No.2,01.04.1993,p.44-P.53のJ.A.Leonardお
よびM.A.Kramerによる"Diagnosing dynamic faluts using modular neuralnets
"により、モジュラーネットワークにおけるダイナミックな誤りの一般的な診断
構成が知られている。この場合にはたとえば入力データの時間的な側面は、新た
な入力データセットが加えられるたびに最も古いデータセットが除かれ、次にシ
ステムにより新たな計算が実行されることによって考慮される。これにより、そ
のつどシステムにより考慮される入力データセットの個数は限度内に抑えられる
。したがってここで挙げた従来技術の場合には、システムにおける過去を考慮す
る可能性が制限される。さらにそこでは種々異なる技術について詳細に説明され
ている。これに関しそのほかの従来技術は知られていない。
本発明の課題は、ニューラルネットワークにおいて時間に伴って発生する入力
量の個数を著しく低減できるようにした方法および装置を提供することにある。
請求の範囲
1.ニューラルネットワークの入力量を準備処理する方法において、
a)入力量を離散的な時点で求めることにより、該入力量の一群の値から1つ
の時系列を形成し、
b)該時系列から少なくとも第1のインターバルを、インターバル内に存在す
る値が過去に遡れば遡るほどインターバルの幅が広がるよう選定することで境界
づけ、
c)前記第1のインターバルにより境界づけられた第1の部分時系列を、平均
値形成のためほぼ鐘状特性曲線の関数を用いて畳み込み、畳込み結果における第
1の最大値を形成し、
d)前記第1の部分時系列を代表する前記第1の最大値を、時系列内にあるが
前記第1のインターバル外に存在する他の入力値と実質的に同時にニューラルネ
ットワークへ供給することを特徴とする、
ニューラルネットワークの入力量を準備処理する方法。
2.複数のインターバルを境界づけ、この種のインターバルグループにおける少
なくともそれぞれ2つの順次連続するインターバルは同じ幅を有し、1つのイン
ターバルグループにおける個々のインターバル
幅を定めるために請求項1と同様のプロセスを行う、請求項1記載の方法。
3.隣り合う2つのインターバルのインターバル境界を、それらのインターバル
が時系列における少なくとも1つの値を共有するように選定する、請求項1また
は2記載の方法。
11.訓練のため第1のステップにおいて、時系列からの畳み込まれていない値を
ニューラルネットワークへ供給し、第2のステップにおいて、過去からの時系列
の値の畳込みにより生じた入力量を用いて訓練を行う、請求項1〜10のいずれ
か1項記載の方法。
12.浄水プラントにおける測定値から少なくとも1つの時系列を形成する、請求
項1〜11のいずれか1項記載の方法。
13.化学的プロセスのための制御装置において、
a)第1の測定値を捕捉するための少なくとも1つのセンサと、
b)該測定値を記憶するための少なくとも1つのメモリと、
c)該メモリに記憶された測定値のためのプロセッサと、
d)フィードフォワードニューラルネットワークと、
e)化学的プロセスに作用を与えるための少なくと
も1つのエフェクタとが設けられており、
f)前記メモリに、規則的な時間間隔で測定された一群の測定値から形成され
た時系列が格納されており、該時系列はプリプロセッサへ供給され、該プリプロ
セッサにより複数の測定値が1つのインターバルとしてまとめられ、インターバ
ル内に存在する測定値が過去へ遡れば遡るほどインターバルの幅が大きくなるよ
う選定され、該インターバルから鐘状の特性曲線による畳込みによって個々の値
が導出され、それらの個々の値はメモリに記憶されている時系列の別の値といっ
しよにニューラルネットワークへ供給され、それらの値からニューラルネットワ
ークにより化学的プロセスのための制御量が形成され、該制御量は前記エフェク
タへ転送されることを特徴とする、
化学的プロセスのための制御装置。
─────────────────────────────────────────────────────
フロントページの続き
(81)指定国 EP(AT,BE,CH,DE,
DK,ES,FR,GB,GR,IE,IT,LU,M
C,NL,PT,SE),JP,US