JPH06266868A - ニューロン素子 - Google Patents

ニューロン素子

Info

Publication number
JPH06266868A
JPH06266868A JP5253138A JP25313893A JPH06266868A JP H06266868 A JPH06266868 A JP H06266868A JP 5253138 A JP5253138 A JP 5253138A JP 25313893 A JP25313893 A JP 25313893A JP H06266868 A JPH06266868 A JP H06266868A
Authority
JP
Japan
Prior art keywords
neuron
synapse
learning
neuron element
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5253138A
Other languages
English (en)
Inventor
Takashi Yoshihara
隆史 吉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP5253138A priority Critical patent/JPH06266868A/ja
Priority to US08/171,013 priority patent/US5671337A/en
Publication of JPH06266868A publication Critical patent/JPH06266868A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Feedback Control In General (AREA)
  • Complex Calculations (AREA)

Abstract

(57)【要約】 【目的】本発明は、シナプス結合強度及び/若しくは内
部閾値を外部入力の大きさに依存して可変化すること
で、ニューロン素子の写像能力を向上させ、少数のニュ
ーロン素子数で高能力、高速処理が実現できるニューラ
ルネットワークを構成するニューロン素子を提供するこ
とを目的とする。 【構成】本発明は、乗算器13,外部からの入力xk
応じて変化するシナプス結合強度wk が1又は複数個格
納されるメモリ14及び前記メモリ14からのシナプス
結合強度wを補間するための補間処理部18とからなる
シナプス部11と、加算器15,シグモイド関数回路1
6及び内部閾値θを格納したメモリ17とからなるニュ
ーロン部12により構成されるニューロン素子である。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、学習機能、自己組織化
機能及び最適化機能を有し、パターン認識、パターン変
換、制御、連想メモリに好適するニューロン素子に関す
る。
【0002】
【従来の技術】図16には、従来から用いられているニ
ューロン素子の例を示し説明する。このニューロン素子
は、McCulloch-Pitts のニューロンモデルと称されてお
り、階層型ニューラルネットワークにおいては、パーセ
プトロンやバックプロパゲーションネットワーク、また
相互接続型ニューラルネットワークにおいては、ホップ
フィールドネットワーク、ボルツマンマシン等の殆どの
ニューラルネットワークの基本素子として利用されてい
る。
【0003】図16に示す従来のニューロン素子は、シ
ナプス部1とニューロン部2に大別され、前記シナプス
部1は、乗算器3とシナプス結合強度を格納したメモリ
4とにより構成され、また前記ニューロン部2は、加算
器5とシグモイド関数回路6と内部閾値θを格納したメ
モリ7とにより構成されている。
【0004】まず、前記k番目の乗算器3に、外部から
の入力xk 及び前記メモリ4から読出されたシナプス結
合強度wk が入力され、積xk ・wk なる演算が行われ
る。前記シナプス部1では、この乗算演算のみを行い、
その結果をニューロン部2へ出力する。そして、前記ニ
ューロン部2の加算器5には、前記シナプス部1からの
出力xk ・wk と、前記メモリ7から読出された内部閾
値θが入力されて、
【0005】
【数1】 なる演算が行われる。ここでnは外部からの入力の個数
である。この結果は、シグモイド関数回路6において、
非線形変換されて外部に出力される。なお、上記シグモ
イド関数処理部6においては、作用させる関数型はシグ
モイド関数に限定されるのではなく、他の非線形関数ま
たは線形関数を用いることもできる。
【0006】図17には、非線形の入力−出力の関係を
持つシグモイド関数の一例を示す。前述したように、ニ
ューロン素子は、入力x=(x1 ,x2 ,…,xn )に
対して、
【0007】
【数2】 を求めるというだけの単純な演算素子ではある。しか
し、多数のニューロン素子を図18(a)に示すように
階層状に接続したり、図18(b)に示すように相互接
続することにより、パターン認識や制御などの高度な処
理が実現される。
【0008】
【発明が解決しようとする課題】前述した従来のMcCull
och-Pitts 型ニューロン素子を階層状に接続したニュー
ラルネットークには、バックプロパゲーション学習法と
いう有用な学習アルゴリズムがあり、種々のアプリケー
ションに応用されている。
【0009】しかし、このバックプロパゲーションネッ
トワークは、学習の収束時間が長く、極小解(ローカル
ミニマム)に落ち入り易い。学習終了後に新規データを
追加学習するのが困難といった欠点がある。
【0010】この原因として、ニューロン素子の処理能
力の不足、ネットワーク構造の処理能力不足、バックプ
ロパゲーション学習法の能力不足等が考えられる。つま
り、従来のMcCulloch-Pitts 型ニューロン素子は、人間
の神経細胞(ニューロン)の構成を模倣しているが、構
成上あまりにも単純化し過ぎたため、本来有しているべ
き処理能力を失わせ、前述した多くの欠点が生じる原因
の1つになったものと推測される。
【0011】そこで本発明は、シナプス結合強度及び/
若しくは内部閾値を外部入力の大きさに依存して可変化
することで、ニューロン素子の写像能力を向上させ、少
数のニューロン素子数で高能力、高速処理が実現できる
ニューラルネットワークを構成するニューロン素子を提
供することを目的とする。
【0012】
【課題を解決するための手段】本発明は上記目的を達成
するために、外部の入力手段または他のニューロン素子
からの入力に対して、シナプス結合強度との乗算処理を
行うシナプス部と、該シナプス部からの出力を加算、閾
値処理し、さらに線形または非線形変換した結果を外部
に出力するニューロン部とを含むニューロン素子におい
て、前記シナプス部のシナプス結合強度及び/若しくは
ニューロン部の閾値を、予め学習された入力の大きさ毎
に異なるシナプス結合強度を用いて、外部からの入力の
大きさに応じて補間演算して求めるニューロン素子を提
供する。
【0013】また、外部の入力手段または他のニューロ
ン素子からの入力に対して、シナプス結合強度との乗算
処理を行うシナプス部と、該シナプス部からの出力を加
算、閾値処理し、さらに線形または非線形変換した結果
を外部に出力するニューロン部とを含むニューロン素子
において、前記シナプス部のシナプス結合強度及び/若
しくはニューロン部の閾値を、予め設定された関数式を
用いて外部からの入力の関数として関数演算して求める
ニューロン素子を提供する。
【0014】
【作用】以上のような構成のニューロン素子は、外部入
力若しくは他のニューロン素子から供給された入力と、
予め学習して格納された入力の大きさ毎に異なるシナプ
ス結合強度が記憶手段から読み出されて前記外部入力の
大きさに依存した補間処理が施されたシナプス結合強度
との積が計算される。その積に予め記憶された内部閾値
との演算が行われ、さらに非線形変換されて外部に出力
される。
【0015】また、本発明のニューロン素子は、シナプ
ス結合強度を下記のような関数演算処理にて求めた後、
外部の入力手段または他のニューロン素子からの入力と
乗算処理を行う。さらに、内部閾値は同様な関数演算処
理して求めたのち、シナプス部からの出力の総和と加算
処理する。たとえば、あらかじめ設定されたシナプス結
合強度の関数型をシナプス部への入力xk の一次関数、
そして、その一次関数の係数をwk1,wk2と仮定する
と、シナプス結合強度wk はwk =wk1k +wk2のよ
うな演算処理によって求められる。その後、シナプス部
への入力xk との積xk ,wk が求められ、これをニュ
ーロン部に出力する。なお、上記係数wk1,wk2はニュ
ーラル・ネットワークの学習により獲得され、シナプス
部のメモリに格納されている。また、ここでは、使用し
た関数型(以下、シナプス結合強度関数と呼ぶ)をxk
の一次関数としたが、他の入力xj を用いたり、多項式
や三角関数、指数関数等も設定することができる。さら
に、内部閾値の場合も、同様に、適当な(閾値)関数型
が設定され、該関数演算により求められる。
【0016】
【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。まず、図2に本発明のニューロン素子の概
念を示し説明する。この図2は、ニューロン素子のシナ
プス部に関わり、外部又は他のニューロン素子からの入
力xに対するシナプス結合強度wの関係を表わしたもの
である。図中、点線で示す従来のMcCulloch-Pitts 型ニ
ューロン素子は、外部又は他のニューロン素子からの入
力xの大きさに関係なく、一定のシナプス結合強度wを
保持する。
【0017】しかし、図中、実線で示す本発明によるシ
ナプス結合強度においては、外部又は他のニューロン素
子からの入力xの大きさに依存して変化するシナプス結
合強度w(x) を持つ。すなわち、このシナプス結合強度
w(x) は、入力xの関数として表わされる。
【0018】なお、シナプス結合強度w(x) として、意
地的に関数式が設定されない方式(第1実施例〜第5実
施例)と、予め関数式が設定される方式(第6実施例〜
第10実施例)がある。
【0019】まず、明示的に関数式が設定されない本発
明によるシナプス結合強度w(x) は、従来と同様に、学
習により獲得しているが、通常、学習データが離散値で
あるため、図2の×印に示すように入力x軸上に離散的
に異なるシナプス結合強度w(x) が求まる。そこで、本
発明では学習により求められた各シナプス結合強度w
(x) 間を入力x軸上において補間する処理部が設けられ
ている。また予め関数式が設定される本発明によるシナ
プス結合強度w(x) は、前記シナプス結合強度関数の係
数の学習により求めることができる。 本発明は、前述
したシナプス結合強度を持つニューロン素子を一部分又
は全部に使用して、階層状に接続又は相互接続してなる
ニューラルネットワークを構成する。
【0020】次に図1には、本発明による第1実施例と
してのニューロン素子の構成を示し説明する。本発明の
ニューロン素子は、図16に示したような、外部からの
入力xk の大きさに依らず一定の値wk のみがメモリに
格納されている従来のニューロン素子とは、シナプス部
の構成が異なるものである。
【0021】図1に示すニューロン素子は、シナプス部
11とニューロン部12に大別される。前記シナプス部
11は、乗算器13とシナプス結合強度を格納したメモ
リ14と、前記メモリ14からのシナプス結合強度wを
補間するための補間処理部18とで構成される。また前
記メモリ14には、外部からの入力xk に作用するシナ
プス結合強度wk が1又は複数個格納される。このシナ
プス結合強度は、wk(xk )として表わされ、外部か
らの入力xk に依存して可変な大きさを持つ。
【0022】また前記ニューロン部12は、加算器15
とシグモイド関数回路16と内部閾値θを格納したメモ
リ17とにより構成されている。次に、このように構成
されたニューロン素子の動作について説明する。
【0023】まず、外部からの入力xk は、乗算器13
と補間処理部18に供給され、該補間処理部18では、
予め学習させて格納されるシナプス結合強度wk (x
k ' ),wk (xk ''),…をメモリ14から読み出
し、入力xk とこのシナプス結合強度wk (xk ' ),
k (xk ''),…とにより、シナプス結合強度wk
(xk )を適当な補間処理により求める。この補間処理
としては、
【0024】
【数3】 やラグランジュ補間やスプライン補間等の多項式補間処
理が用いられる。
【0025】前記補間処理部18により、求められたシ
ナプス結合強度wk (xk )は、前記乗算器13におい
て、入力xk との積xk ・wk (xk )が計算されて、
ニューロン部12の加算器15に送られる。以後は、従
来のニューロン素子と同様に、メモリ17からの内部閾
値θと
【0026】
【数4】 なる演算が前記加算器15により行われ、その結果、シ
グモイド関数回路16において、非線形変換されて外部
に出力される。
【0027】次に図3には、本発明による第2実施例と
してのニューロン素子の構成を示し説明する。このニュ
ーロン素子は、第1実施例のニューロン素子のシナプス
部11に外部からの入力xk の量子化を行う量子化部1
9が付加された構成である。以下、このようなニューロ
ン素子の動作について説明する。
【0028】まず、外部からの入力xk が、乗算器13
と量子化部19とに供給され、該量子化部19では、適
当な量子化ステップで入力xk を量子化値xk ' に変換
し、補間処理部18に出力する。
【0029】前記補間処理部18では、メモリ14から
予め所定学習して格納されているシナプス結合強度wk
(xk ''),wk (xk ''' ),…を読み出し、第1実
施例と同様な補間処理を行う。
【0030】この第2実施例のニューロン素子では、量
子化ステップ幅をアプリケーションの難易度等により変
化させることができる。すなわち、量子化ステップ幅を
最大限に設定すると、従来のニューロン素子と等価にな
り、前記メモリ14のサイズを最小限にすることができ
る。また、量子化ステップ幅を前記メモリ14のサイズ
に合わせて適当にとり、該メモリ14には量子化値毎の
シナプス結合強度を格納するようにすると、前記補間処
理部18では、ルックアップテーブル式にシナプス結合
強度wk (xk ' )を、より高速に求めることができ
る。
【0031】次に本発明の第3実施例としてのニューロ
ン素子の構成を説明する。図4は、ニューロン素子にお
けるメモリの内部閾値θとシナプス結合強度の学習を行
うための回路構成である。ここで、第3実施例の構成部
材で図1に示す構成部材と同等の部材には同じ参照符号
を付してその説明を省略する。
【0032】このニューロン素子は、前述した図1の第
1実施例に対して、補間処理部18に換って、学習回路
20と乱数発生器21そして量子化部19が追加され、
教師データ22が外部より供給される。以下に、バック
プロパゲーション学習を例として学習動作を説明する。
【0033】まず、学習回路20は、乱数発生器21に
より発生させた微小な乱数をメモリ14,17のシナプ
ス結合強度wk =(wk (s) ,wk (2s),…,wk (m
s)) と、内部閾値θの初期値として設定する。ただしm
は量子化個数、sは量子化ステップとする。
【0034】そして、学習データx=(x1 ,x2
…,xk ,…,xn )は、外部よりニューロン部11の
乗算器13と量子化部19に供給され、量子化部19で
は適当な量子化ステップsで入力xk を量子化値xs '
とし、そのxs ' に対応するシナプス結合強度wk (x
s ' )を読み出し、乗算器13に供給する。
【0035】前記乗算器13では、入力xk とシナプス
結合強度wk (xs ' )の積xk ・wk (xs ' )が計
算されてニューロン部12の加算器15に送られ、メモ
リ17の内部閾値θとの和、
【0036】
【数5】 が計算され、シグモイド関数回路16にて非線形変換f
(・)を受ける。次に学習回路20では、
【0037】
【数6】 を最急降下法をもちいて最小化する。ここで、
【0038】
【数7】 但し、dはyに対応する教師データ22である。最急降
下法では誤差関数Eをシナプス結合強度wk 及び内部閾
値θで偏微分した値に比例して、それぞれのwk 及びθ
を修正していく。すなわち、
【0039】
【数8】 となり、計算に必要となる値x,w,θ,yをそれぞ
れ、外部からの入力、前記メモリ14、メモリ17及び
シグモイド関数回路16から受けとる。ここで、εは学
習率を定める係数で、tは学習ステップ(時間)を表わ
す。
【0040】そして学習回路20で新たに求められたシ
ナプス結合強度wk 及び内部閾値θを用いて、量子化部
19で求められた量子化値xs ' に対応するメモリ1
4、17上のシナプス結合強度wk と内部閾値θを修正
する。前述した乱数発生器21によるメモリ初期化より
以降の処理を学習データ全てについて、誤差関数Eが許
容値以下になるまでくり返す。
【0041】一般に学習データは、離散値として与えら
れるため、学習させるシナプス結合強度wk も入力x軸
上で離散的になる。そこで、未知データの入力に対処す
るため、学習終了後の実行時には、学習済みシナプス結
合強度wk を用いて前記補間処理を行う。なお、前述し
た学習例では、シナプス結合強度wの量子化個数mを一
定としているが、学習途中で変更することも可能であ
る。
【0042】例えば、学習の初期には量子化個数mを1
としておき、学習が進むにしたがって量子化個数mを大
きくしていく。すなわち、学習の初期には、従来のニュ
ーロン素子を用いたバックプロパゲーション学習が進行
し、大まかな写像関係が学習でき、学習の後期では本発
明のニューロン素子により、詳細な写像関係が獲得でき
るようになる。なお、量子化個数mが1の場合は、従来
のニューロン素子と等価であるため、本発明のニューロ
ン素子は、従来のニューロン素子を特別な一例として包
含するものとなっている。
【0043】また、ここでは、学習方法として、バック
プロパゲーション学習を用いたが、従来から提案されて
いる他の学習方法、たとえば、パーセプトロン学習、H
ebb学習、直交学習、相関学習、自己組織化学習等を
用いることも容易である。
【0044】シナプス結合強度w(x) として明示的に関
数式が設定されない本発明によるニューロン素子を用い
て学習を行う場合、シナプス結合強度wが入力x軸上に
離散的に獲得されることは、前述した通りだが、これに
より、学習データに対するシナプス結合強度wの修正が
局所的になる。そのため、学習の収束時間が短くなり、
しかも、学習後の新規データの追加学習が容易にできる
ようになる。
【0045】さらに極小解(ローカルミニマム)への落
ち込みが減少するという結果がコンピュータュミレーシ
ョンで得られている。また、ニューロン素子の写像能力
が、この局所的学習により向上しているため、従来のニ
ューロン素子を用いた場合と比較して、少ない数のニュ
ーロン素子で同等の写像能力を持つニューラルネットワ
ークが構成できる。よって従来から問題となっているネ
ットワーク間の膨大な配線数が削減され、LSI化も容
易になる。
【0046】なお、パリティ問題において、コンピュー
タシミュレーションした結果、従来のニューロン素子に
比べて、学習収束速度が10〜100倍程度に高速化さ
れていることが確認されている。
【0047】次に図5には、本発明の第4実施例として
のニューロン素子の構成を示し説明する。本実施例は、
第1実施例が多入力−1出力のニューロン素子であった
のに対して、1入力−1出力の構成となっている。この
ニューロン素子では入力を時分割で受けとることで、第
1実施例と同様の機能をもつ。第1実施例と比較して、
シナプス部11の乗算器13が1個になり、ニューロン
部12に積和データー時保存用のラッチ回路23とカウ
ンタ24が新たに追加されている。以下にその動作を具
体的に述べる。
【0048】外部からの入力x=(x1 ,x2 ,…,x
k ,…xn )を時系列データとみなして、入力xk がシ
ナプス部11の乗算器13と補間処理部18に供給され
ると、補間処理部18ではメモリ14より格納済みのシ
ナプス結合強度wk (xk '),wk (xk ''),…を
読み出し、第1実施例と同様な補間処理を行う。補間処
理部18で得られたシナプス結合強度wk (xk )を用
いて、乗算器13では積xk ・wk (xk )を計算し、
ニューロン部12の加算器15に送る。加算器15で
は、ラッチ回路23からの
【0049】
【数9】 が計算されてラッチ回路23に送られる。カウンタ24
にてラッチ回数が計測され、入力x=(x1 ,x2
…,xn )の全てについて加算処理が終了すると、前記
メモリ17の内部閾値θと加算され、ラッチ回路23に
送られる。ラッチ回路23のデータはシグモイド関数回
路16に出力されて、非線形変換f(・)されて外部に
出力される。
【0050】このように本実施例のニューロン素子を用
いると、ネットワーク化した場合の配線数が大幅に削減
され、配線数と同数必要となるシナプス部11の乗算器
13を1個にすることができ、ハード量を大幅に削減す
ることが可能となる。但し、入力xが時分割で供給され
るため、処理速度がやや低下する。
【0051】次に図6には、本発明の第5実施例として
のニューロン素子の構成を示し説明する。このニューロ
ン素子は、前述した第1実施例のニューロン素子が外部
からの入力x=(x1 ,x2 ,…,xk ,…xn )のx
k に作用するシナプス結合強度wk を1以上に分割して
保持していたのに対して、メモリ17に格納されている
内部閾値θを1以上に分割して保持することを特徴とし
ている。
【0052】この構成は、シナプス部11においては、
従来のニューロン素子と同様で、ニューロン部12に内
部閾値θの補間処理部18と加算器25が新たに付加さ
れ、メモリ17には複数の内部閾値θが格納できるよう
に拡張されている。以下に、前記ニューロン素子の動作
について説明する。
【0053】まず、前記シナプス部11においては、従
来のニューロン素子と同様に、xk・wk なる演算が行
われ、ニューロン部12に送られる。前記ニューロン部
12では加算器15において、和
【0054】
【数10】 がとられ、その結果が、前記補間処理部18及び加算器
25に供給される。
【0055】前記補間処理部18では、学習等によりす
でに格納済みの内部閾値θ(y′),θ(y″),…を
メモリ17より読み出し、和yとこの内部閾値θ
(y′),θ(y″),…とから、内部閾値θ(y)を
適当な補間処理により求める。この補間処理は、第1実
施例と同様な手法が使用できる。そして、前記加算器2
5において、y+θ(y)なる計算がなされ、シグモイ
ド関数回路16にて非線形演算f(・)が行われ、外部
に出力される。
【0056】この第5実施例のニューロン素子は、第1
実施例に比べて、メモリサイズを小さくすることができ
る。それは、メモリ14に格納されるシナプス結合強度
wが、入力x=(x1 ,x2 ,…,xn )の次元数nに
比例するが、メモリ17に格納される内部閾値θが次元
数1であるため、一般に、前記メモリ17の増加分が小
さくなるためである。
【0057】また、入力データが線形分離可能でない排
他的論理和(XOR)等では、従来のニューロン素子や
第1実施例のニューロン素子の場合、階層型ニューラル
ネットワークを用いて分離するには、中間層が必ず必要
となる。
【0058】しかし本実施例では、図7(a)に示すよ
うな中間層を持たないニューラルネットワークでも分離
可能である。図7(b)はシナプス結合強度wが、+
1.0と−0.5の場合のXORにおける出力層のニュ
ーロン素子の積和値Σxwであるが、これが分離可能と
なるには、θ(0)<0, θ(−0.5)>0.
5, θ(1.0)>−1.0,θ(0.5)<−
0.5であればよい。
【0059】すなわち、図8に示すように内部閾値θが
積和値Σxwに依存して設定される。なお、内部閾値θ
は図4と同様な学習回路を用いて、バックプロパゲーシ
ョン学習やパーセプトロン学習等により獲得できる。ま
た、本実施例でも、シナプス部の構成を第1実施例とし
て同様な構成にできる。
【0060】次にシナプス結合強度w(x) として明示的
に関数式を与える実施例を以下に示す。図9には、本発
明による第6実施例としてのニューロン素子の構成を示
し説明する。このニューロン素子は、図16に示したよ
うな、外部からの入力x1 ,x2 ,…,xk ,…,xn
に依存しない一定のシナプス結合強度w1 ,w2 ,…,
k ,…,wn のみがメモリに格納されている従来のニ
ューロン素子とは、シナプス部の構成が異なるものであ
る。
【0061】図9に示すニューロン素子は、シナプス部
11とニューロン部12に大別される。前記シナプス部
11は、乗算器13とシナプス結合強度関数の係数を格
納したメモリ14と、前記メモリ14からの係数を用い
てシナプス結合強度w1 ,w2 ,…,wk ,…,wn
算出するためのシナプス結合強度関数処理部28とで構
成される。また、前記メモリ14には、上記シナプス結
合強度wk を求めるためのシナプス結合強度関数の係数
が、各乗算器k毎に1または複数個づつ格納される。こ
の係数の個数は、シナプス結合強度関数の種類に依存し
て設定される。また、前記ニューロン部12は、加算器
15とシグモイド関数回路16と内部閾値θを格納した
メモリ17とにより構成されている。
【0062】次に、このように構成されたニューロン素
子の動作について説明する。まず、外部からの入力x
1 ,x2 ,…,xk ,xn は、乗算器13とシナプス結
合強度関数処理部28に供給される。該シナプス結合強
度関数処理部28では、予め学習させて格納されるシナ
プス結合強度関数の係数wk1,wk2,…,wkm(ただ
し、mは該係数の個数)をメモリ14から読み出し、予
め設定されたシナプス結合強度関数により、シナプス結
合強度wk を算出する。例えば、前記シナプス結合強度
関数が、外部からの入力xk の2次関数として設定され
ると、そのシナプス結合強度wk は、wk =wk1・xk
2 +wk2・xk +wk3となり、3個の係数wk1,wk2
k3がメモリ14から読み出される。
【0063】この係数の値がwk1=0.5、wk2=1.
5、wk3=1.0とすると、シナプス結合強度関数は図
10に示すようにグラフ化されるが、xk =1.5のと
き、wk =−0.125、xk =3のときは、wk
1.0というように、シナプス結合強度wk が算出でき
るのがわかる。なお、該係数は、後に詳述する学習処理
により獲得される。このように、シナプス結合強度関数
処理部28により、求められたシナプス結合強度wk
は、前記k番目の乗算器13において、入力xk との積
k ・wk が計算されて、ニューロン部12の加算器1
5に送られる。以後は、従来のニューロン素子と同様
に、メモリ17からの閾値θと、
【0064】
【数11】 なる演算が前記加算器15により行われ、次いで、シグ
モイド関数回路16において、非線形変換されて外部に
出力される。
【0065】本実施例は、第1実施例に比べて、パラメ
ータ量すなわちメモリサイズを一般的に削減(縮少)可
能である。また、本実施例では、該シナプス結合強度関
数が、外部からの入力xk の2次関数であるとしたが、
他の入力xj の他の関数たとえば、三角関数や指数関数
等であってもかまわない。さらに、各シナプス結合強度
関数の種類が、それぞれのwk 毎に異なっていてもかま
わない。すなわち、
【0066】
【数12】 でもよい。なお、前記シグモイド関数回路16において
作用させる関数型はシグモイド関数に限定されるもので
はなく、他の非線形関数または線形関数を用いることも
できる。
【0067】以上のように、第6実施例のニューロン素
子は、シナプス部において、その入力に対して非線形応
答性をもつため、従来のニューロン素子よりも、高度な
情報処理能力を持つことが可能である。
【0068】次に図11には、本発明による第7実施例
としてのニューロン素子の構成を示し、説明する。この
ニューロン素子は、前述した第6実施例のニューロン素
子のシナプス部11に、信号遅延器29を付加した構成
である。
【0069】以下、このようなニューロン素子の動作に
ついて説明する。まず外部からの入力xk t (ここでt
は時間を表す)が、乗算器13とシナプス結合強度関数
処理部28および信号遅延器29とに供給されるが、該
シナプス結合強度関数処理部28には、信号遅延器29
を経由した1時刻前の外部からの入力xk t-1 が同時に
供給される。該シナプス結合強度関数処理部28では、
予め学習させて格納されるシナプス結合強度関数の係数
k1,wk2,…,wkmをメモリ14から読み出し、遅延
入力xk t-1 を包含したシナプス結合強度関数により、
シナプス結合強度wk を算出する。例えば、前記シナプ
ス結合強度関数が、外部からの入力xk t ,xk t-1
1次関数として設定されていると、そのシナプス結合強
度wk は、
【0070】
【数13】 により求められる。該シナプス結合強度関数処理部28
で算出されたシナプス結合強度wk は、k番目の乗算器
13において、入力xk との積xk ・wk が計算され
て、ニューロン部12の加算器15に送出される。以後
は、従来のニューロン素子と同様に処理が行われる。こ
の第2実施例は、シナプス結合強度関数に、遅延信号を
含むため時系列信号たとえば音声信号等を直接処理する
ことができる。また、信号遅延器29を多段に接続し、
複数時刻前の遅延信号をシナプス結合強度関数処理部2
8に入力することも可能であり、時系列信号処理を、よ
り高精度に行うことができる。
【0071】次に図12には、第8実施例として、前述
した第7実施例の変形例を示し説明する。前述した第7
実施例では、信号遅延器29に外部からの入力xk t
入力されていたが、本第8実施例では、ニューロン部の
出力yt が入力されるところが異なる。
【0072】このニューロン素子の動作は、まず、外部
からの入力xk t が、乗算器13とシナプス結合強度関
数処理部28とに供給されるが、該シナプス結合強度関
数処理部28には、前記信号遅延器29を経由した1時
刻前のニューロン部の出力yt-1 が同時に供給されてい
る。該シナプス結合強度関数処理部28では、予め学習
させて格納されるシナプス結合強度関数の係数wk1,w
k2,…,wkmをメモリ14から読み出し、前記遅延信号
t-1 を包含したシナプス結合強度関数により、シナプ
ス結合強度wk を算出する。以後は第7実施例と同様に
処理が行われる。 この第8実施例では、ニューロン部
の出力yt を、次の出力yt+1 の演算のためにフィード
バックする形になるため、理論的には、無限遠の遅延信
号を保持することになる。これは、第7実施例におい
て、信号遅延器29を多段に接続し、複数時刻前の遅延
入力xk t-1 ,xk t-2 ,…を用いることと同等の処理
となり、結果として、本変形例では信号遅延器29の削
減が可能となる。
【0073】次に図13には、本発明による第9実施例
としてのニューロン素子の構成を示し、説明する。この
ニューロン素子は、前述した第6実施例のニューロン素
子が、シナプス部11において、外部からの入力x1
2 ,…,xk ,…,xn に関してシナプス結合強度関
数を算出していたのに対して、ニューロン部12の加算
器15からの出力
【0074】
【数14】 に関する閾値関数を計算して内部閾値を求めることを特
徴としている。
【0075】この構成は、シナプス部11においては、
従来のニューロン素子と同じで、ニューロン部12にお
いて、新たに、内部閾値θを算出するための閾値関数処
理部30と加算器31が追加されている。また、メモリ
14には、閾値関数の係数が格納される。以下、このよ
うに構成されたニューロン素子の動作について説明す
る。 まず、前記シナプス部11においては、従来のニ
ューロン素子と同様に外部からの入力xk とシナプス結
合強度wk との積xk ・wk が計算され、ニューロン部
12に送られる。前記ニューロン部12では加算器15
において、
【0076】
【数15】 が計算され、その結果が、前記閾値関数処理部30およ
び加算器31に供給される。該閾値関数処理部30で
は、予め学習させて格納される閾値関数の係数θ1,θ2
,…,θm (ただし、mは該係数の個数)をメモリ1
7から読み出し、予め設定された閾値関数により、内部
閾値θを算出する。例えば、前記閾値関数が、sin関
数として設定されていると、その内部閾値θは、例え
ば、
【0077】
【数16】 となり4個の係数θ1 ,θ2 ,θ3 ,θ4 がメモリ17
から読み出される。なお、該係数は、後に述べる学習処
理により獲得される。このように、閾値関数処理部30
により、求められた内部閾値θは、前記加算器31にお
いてシナプス部11からの出力の総和
【0078】
【数17】 と加算され、
【0079】
【数18】 が得られる。その結果はシグモイド関数回路16におい
て、非線形変換されて、外部に出力される。
【0080】従って、この第9実施例のニューロン素子
は、第6実施例に比べて、メモリサイズを小さくするこ
とができる。それは、第6実施例のメモリ14に格納さ
れるシナプス結合強度関数の係数の量が、外部からの入
力x1 ,x2 ,…,xk ,…,xn の次元数nに比例し
て増大するが、第9実施例のメモリ17に格納される閾
値関数の係数は1次元分であるため、一般に前記メモリ
17の増加分が小さくなるためである。
【0081】次に図14には、本発明による第10実施
例としてのニューロン素子の構成を示し説明する。図1
4は、前述した第6実施例におけるシナプス部11のシ
ナプス結合強度関数の係数wkmとニューロン部12の内
部閾値θの学習を行うための回路構成である。このニュ
ーロン素子は、第6実施例に対して、学習処理部32と
乱数発生器33が追加され、教師データ34とシナプス
結合強度関数型35が外部より供給される。以下に、学
習方法としてバックプロパゲーション学習を例として学
習動作を説明する。
【0082】まず、使用するシナプス結合強度関数型
を、外部から学習処理部32に指示し、学習処理部32
は、その情報によりシナプス結合強度関数処理部28を
初期化し、設定された特定の関数を処理可能とする。ま
た、該学習処理部32は、乱数発生器33により発生さ
せた微小な乱数を用いて、メモリ14および17のシナ
プス結合強度関数の係数wk1,wk2,…,wkmと、内部
閾値θの初期値として設定する。
【0083】学習データx1 ,x2 ,…,xk ,…,x
n は、外部よりニューロン部11の乗算器13とシナプ
ス結合強度関数処理部28及び学習処理部32に供給さ
れる。シナプス結合強度関数処理部28では、学習デー
タx1 ,x2 ,…,xk ,…,xn とメモリ14から読
み出したシナプス結合強度関数の係数とを用いて設定さ
れた関数演算を行い、シナプス結合強度wk を求める。
前記乗算器13では、入力xk と上で求めたシナプス結
合強度wk の積xk ・wk が計算され、次にニューロン
部12の加算器15において、メモリ17の内部閾値θ
との和
【0084】
【数19】 が計算され、シグモイド関数回路16にて非線形変換
【0085】
【数20】 を受け、出力
【0086】
【数21】 が求まる。次に、学習処理部32では、誤差関数
【0087】
【数22】 を最急降下法を用いて、最小化する。ここで、dは出力
yに対応する教師データ34である。最急降下法では、
誤差関数Eをシナプス結合強度の係数wkmおよび内部閾
値θで偏微分した値に比例して、それぞれのwkmおよび
θを修正していく。すなわち、
【0088】
【数23】 なる学習計算を行う。詳細は、文献(D.E.Rume
lhart etc.,“Learning Inte
rnal representations by e
rror propagation”,Paralle
l Distributed Processing,
Vol.1,chap.8, '86,MIT Pres
s)を参照のこと。ここで、η1 ,η2 は学習率を定め
る係数で、tは学習ステップ(時間)である。該学習処
理部32で新たに求められたシナプス結合強度関数の係
数および内部閾値θを用いて、メモリ14,17中の値
を設定しなおす。前述したメモリ14およびメモリ17
の内容の初期値設定より後の処理を学習データ全てにつ
いて前記誤差関数Eが許容値以下になるまでくり返した
時点で学習は完了する。なお、前述した第9実施例にお
ける閾値関数の係数も、同様に最急降下法を用いて学習
できる。すなわち、
【0089】
【数24】 のように学習する。
【0090】なお、前記実施例では、学習方法として、
バックプロパゲーション学習を用いたが、従来から提案
されている他の学習方法、たとえば、パーセプトロン学
習、Hebb学習、直交学習、相関学習、自己組織化学
習等を用いることも容易である。
【0091】また、前述した学習例では、シナプス結合
強度関数の係数を一律に学習修正しているが、学習初期
には、一部の該係数を不変固定化しておき学習後期に、
徐々に該係数を学習修正可能とする方法がある。
【0092】図15に、この学習方法のフローチャート
を示す。まず、学習時の初期設定として、学習回数t
と、シナプス結合強度関数の係数の内、学習修正しない
該係数(固定化係数)及びその個数mを設定する(ステ
ップS1)。次いで、学習回数tを更新した後(ステッ
プS2)、該固定化係数以外の係数について、前述した
学習処理を行う(ステップS3)。その学習の結果、誤
差関数E(t)と許容誤差α(>0)を比較し(ステッ
プS4)、誤差関数E(t)が許容誤差α(>0)以内
になった時点(YES)で学習は完了する。しかし、許
容誤差α(>0)以内でない場合(NO)、誤差の減少
の度合
【0093】
【数25】 と、設定値β(>0)と比較する(ステップS5)。こ
の判定で設定値β以内ならば(YES)、固定化係数の
個数チェックを行い、そうでない場合には(NO)、ス
テップS2に戻り学習処理をくり返す。また、固定化係
数の個数mのチェック(ステップS6)で、すでに固定
化係数が使用されつくされている場合(m=0の場合)
にも、前記学習処理をくり返す。なお、固定化係数が存
在する場合(m>0)には(YES)、固定化されてい
る係数を一個、学習可能とし、固定化係数の個数mを1
だけ減算する(ステップS7)。このような処理を、誤
差関数E(t)が、許容誤差以内になるまでくり返す。
これは、まず、大まかな写像関係を学習し、次いで、詳
細な写像関係を学習するようなものになる。この方法を
応用して、学習後の新規データの追加学習を行うことも
容易になる。
【0094】なお、図14に示すこの実施例では、学習
処理部32や乱数発生器33をニューロン素子内に持
ち、オンライン学習を可能にしているため、通常の動作
中に得られた誤動作入力データを用いて、リアルタイム
の学習処理および性能向上が可能となる。また、ニュー
ロン素子外に学習処理部を持ち、オフライン学習するも
のに比べて、前述した誤動作入力データを格納するデー
タ領域を最少限にすることが可能となる。該学習処理部
や乱数発生器は複数のニューロン素子で共有、使用する
構成も可能である。
【0095】以上説明したように本発明によるニューロ
ン素子は、シナプス部がその入力に対して非線形応答性
をもつため、従来のニューロン素子に比べて写像能力が
向上する。そのため、従来よりも少ないニューロン素子
で同等の能力を持つニューラル・ネットワークが実現で
き、しかも、学習の収束時間の短縮、極小解への収束回
避、新規データの追加学習が容易となる。また本発明
は、前述した実施例に限定されるものではなく、他にも
発明の要旨を逸脱しない範囲で種々の変形や応用が可能
であることは勿論である。
【0096】
【発明の効果】以上詳述したように本発明によれば、シ
ナプス結合強度及び/若しくは内部閾値を外部入力の大
きさに依存して可変化することで、ニューロン素子の写
像能力を向上させ、少数のニューロン素子数で高能力、
高速処理が実現できるニューラルネットワークを構成す
るニューロン素子を提供することができる。
【図面の簡単な説明】
【図1】本発明による第1実施例としてのニューロン素
子の構成を示す図である。
【図2】本発明のニューロン素子の概念を示す図であ
る。
【図3】本発明による第2実施例としてのニューロン素
子の構成を示す図である。
【図4】ニューロン素子におけるメモリの内部閾値θと
シナプス結合強度の学習を行う第3実施例としての回路
構成を示す図である。
【図5】本発明の第4実施例としてのニューロン素子の
構成を示す図である。
【図6】本発明の第5実施例としてのニューロン素子の
構成を示す図である。
【図7】中間層を持たないニューラルネットワークの構
成と、所定のシナプス結合強度の時のXORにおける出
力層のニューロン素子の積和値を示す図である。
【図8】内部閾値θと積和値Σxwとの関係を示す図で
ある。
【図9】本発明による第6実施例としてのニューロン素
子の構成を示す図である。
【図10】シナプス結合強度関数をグラフとして示した
図である。
【図11】本発明による第7実施例としてのニューロン
素子の構成を示す図である。
【図12】本発明による第8実施例としてのニューロン
素子の構成を示す図である。
【図13】本発明による第9実施例としてのニューロン
素子の構成を示す図である。
【図14】本発明による第10実施例としてのニューロ
ン素子の構成を示す図である。
【図15】第10実施例のニューロン素子における学習
方法を示すフローチャートである。
【図16】従来のニューロン素子の構成例を示す図であ
る。
【図17】非線形の入力−出力の関係を持つシグモイド
関数の一例を示す図である。
【図18】従来のニューラルネットワークの構成を示す
図である。
【符号の説明】
1,11…シナプス部、2,12…ニューロン部、3,
13…乗算器、4,7,14,17…メモリ、5,1
5,25,31…加算器、6,16…シグモイド関数回
路、18…補間処理部、19…量子化部、20…学習回
路、21,33…乱数発生器、22,34…教師デー
タ、23…ラッチ回路、24…カウンタ、28…シナプ
ス結合強度関数処理部、29…信号遅延器、30…閾値
関数処理部、32…学習処理部、35…シナプス結合強
度関数型。

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 外部の入力手段または他のニューロン素
    子からの入力に対して、シナプス結合強度との乗算処理
    を行うシナプス部と、該シナプス部からの出力を加算、
    閾値処理し、さらに線形または非線形変換した結果を外
    部に出力するニューロン部とを含むニューロン素子にお
    いて、 前記シナプス部のシナプス結合強度及び/若しくはニュ
    ーロン部の閾値を、予め学習された入力の大きさ毎に異
    なるシナプス結合強度を用いて、外部からの入力の大き
    さに応じて補間演算し、求めることを特徴とするニュー
    ロン素子。
  2. 【請求項2】 外部の入力手段または他のニューロン素
    子からの入力に対して、シナプス結合強度との乗算処理
    を行うシナプス部と、該シナプス部からの出力を加算、
    閾値処理し、さらに線形または非線形変換した結果を外
    部に出力するニューロン部とを含むニューロン素子にお
    いて、 前記シナプス部のシナプス結合強度及び/若しくはニュ
    ーロン部の閾値を、予め設定された関数式を用いて外部
    からの入力の関数として関数演算し、求めることを特徴
    とするニューロン素子。
JP5253138A 1992-12-24 1993-10-08 ニューロン素子 Withdrawn JPH06266868A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP5253138A JPH06266868A (ja) 1992-12-24 1993-10-08 ニューロン素子
US08/171,013 US5671337A (en) 1992-12-24 1993-12-21 Neuron unit

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP34460292 1992-12-24
JP4-344602 1992-12-24
JP5253138A JPH06266868A (ja) 1992-12-24 1993-10-08 ニューロン素子

Publications (1)

Publication Number Publication Date
JPH06266868A true JPH06266868A (ja) 1994-09-22

Family

ID=26541053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5253138A Withdrawn JPH06266868A (ja) 1992-12-24 1993-10-08 ニューロン素子

Country Status (2)

Country Link
US (1) US5671337A (ja)
JP (1) JPH06266868A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100292067B1 (ko) * 1997-12-26 2001-07-12 전주범 이산시간셀룰러신경회로망용셀
WO2008072994A1 (fr) * 2006-12-13 2008-06-19 Evgeny Nikolaevich Zakharov Élément neuronal
RU2744361C1 (ru) * 2020-04-10 2021-03-05 Евгений Николаевич Захаров Нейроподобный элемент
CN113168574A (zh) * 2018-12-12 2021-07-23 日立安斯泰莫株式会社 信息处理装置、车载控制装置、车辆控制系统

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6754645B2 (en) * 2001-03-20 2004-06-22 Winbond Electronics Corp. Voltage-mode pulse width modulation VLSI implementation of neural networks
US20040022202A1 (en) * 2002-08-05 2004-02-05 Chih-Lung Yang Method and apparatus for continuously receiving images from a plurality of video channels and for alternately continuously transmitting to each of a plurality of participants in a video conference individual images containing information concerning each of said video channels
US7492387B2 (en) * 2002-08-05 2009-02-17 Chih-Lung Yang Implementation of MPCP MCU technology for the H.264 video standard
US6963788B2 (en) * 2003-03-04 2005-11-08 Norbert Abels Holography-aided orthodontic archwire bending
US7904398B1 (en) 2005-10-26 2011-03-08 Dominic John Repici Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
US9129220B2 (en) * 2010-07-07 2015-09-08 Qualcomm Incorporated Methods and systems for digital neural processing with discrete-level synapes and probabilistic STDP
US9619749B2 (en) 2014-03-06 2017-04-11 Progress, Inc. Neural network and method of neural network training
US10423694B2 (en) 2014-03-06 2019-09-24 Progress, Inc. Neural network and method of neural network training
CA2941352C (en) 2014-03-06 2022-09-20 Progress, Inc. Neural network and method of neural network training
RU2579958C1 (ru) * 2014-12-25 2016-04-10 Федеральное государственное бюджетное образовательное учреждение высшего образования "Донской государственный технический университет" Искусственный нейрон
US10509999B2 (en) 2015-12-30 2019-12-17 SK Hynix Inc. Neuromorphic device including post-synaptic neurons having a comparator for deciding quasi- learned synapses
US10459876B2 (en) * 2018-01-31 2019-10-29 Amazon Technologies, Inc. Performing concurrent operations in a processing element
US11742901B2 (en) * 2020-07-27 2023-08-29 Electronics And Telecommunications Research Institute Deep learning based beamforming method and apparatus

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1990002381A1 (fr) * 1988-08-31 1990-03-08 Fujitsu Limited Ordinateur neuronal
US5319737A (en) * 1991-01-15 1994-06-07 Smiths Industries Aerospace & Defense Systems, Inc. Network structure for path generation
JPH06509670A (ja) * 1991-04-29 1994-10-27 インテル・コーポレーション 差分ニューロンを包含したニューラルネットワーク
US5261035A (en) * 1991-05-31 1993-11-09 Institute Of Advanced Study Neural network architecture based on summation of phase-coherent alternating current signals
US5467428A (en) * 1991-06-06 1995-11-14 Ulug; Mehmet E. Artificial neural network method and architecture adaptive signal filtering
US5253329A (en) * 1991-12-26 1993-10-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Neural network for processing both spatial and temporal data with time based back-propagation
US5278945A (en) * 1992-01-10 1994-01-11 American Neuralogical, Inc. Neural processor apparatus
US5256911A (en) * 1992-06-10 1993-10-26 Intel Corporation Neural network with multiplexed snyaptic processing
US5355436A (en) * 1992-10-05 1994-10-11 The Research Foundation, State University Of New York At Buffalo Single layer neural network circuit for performing linearly separable and non-linearly separable logical operations

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100292067B1 (ko) * 1997-12-26 2001-07-12 전주범 이산시간셀룰러신경회로망용셀
WO2008072994A1 (fr) * 2006-12-13 2008-06-19 Evgeny Nikolaevich Zakharov Élément neuronal
CN113168574A (zh) * 2018-12-12 2021-07-23 日立安斯泰莫株式会社 信息处理装置、车载控制装置、车辆控制系统
RU2744361C1 (ru) * 2020-04-10 2021-03-05 Евгений Николаевич Захаров Нейроподобный элемент

Also Published As

Publication number Publication date
US5671337A (en) 1997-09-23

Similar Documents

Publication Publication Date Title
JPH06266868A (ja) ニューロン素子
US5519647A (en) Apparatus for and method of generating an approximation function
US5781701A (en) Neural network and method of using same
Foster et al. Neural network forecasting of short, noisy time series
CN112529166A (zh) 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备
Amrutha et al. Performance analysis of backpropagation algorithm of artificial neural networks in verilog
JPH0713950A (ja) 人工ニューロンおよびその使用方法
CN110223785A (zh) 一种基于深度学习的传染病传播网络重构方法
CN117670586B (zh) 一种基于图神经网络的电网节点碳因子预测方法及系统
Bodyanskiy et al. Multilayer radial-basis function network and its learning
KR0170505B1 (ko) 다층퍼셉트론 신경회로망의 n비트 데이타 표현에 의한 학습방법
Solazzi et al. Regularising neural networks using flexible multivariate activation function
CN109670582A (zh) 一种全定点化神经网络的设计方法
JPH04182769A (ja) デジタル・ニューロプロセッサ
JPH076146A (ja) 並列データ処理システム
Mahapatra et al. Mapping of neural network models onto systolic arrays
Vega et al. Fuzzy modeling using LSTM cells for nonlinear systems
Munavalli et al. Pattern recognition for data retrieval using artificial neural network
HU Neural Network Signal Processing
JP3328953B2 (ja) 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法
JPH03167655A (ja) ニューラルネットワーク
JPH07210542A (ja) ニューロン回路
JPH06131482A (ja) アナログニューラルネットワーク回路
WO2007096954A1 (ja) ニューラルネットワーク装置及びその方法
Matsuoka A novel model of autoassociative memory and its self-organization

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20001226