JPH0243665A - Neural network device - Google Patents

Neural network device

Info

Publication number
JPH0243665A
JPH0243665A JP63195035A JP19503588A JPH0243665A JP H0243665 A JPH0243665 A JP H0243665A JP 63195035 A JP63195035 A JP 63195035A JP 19503588 A JP19503588 A JP 19503588A JP H0243665 A JPH0243665 A JP H0243665A
Authority
JP
Japan
Prior art keywords
weight
output
circuit
neural network
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63195035A
Other languages
Japanese (ja)
Inventor
Kazuhiro Obara
小原 和博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63195035A priority Critical patent/JPH0243665A/en
Publication of JPH0243665A publication Critical patent/JPH0243665A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To improve a learning speed and a processing speed by composing the variable synapse coupling of a neural network of a weight memory circuit constituting a rewritable memory circuit and of a multiplying circuit to multiply the output of a neuron on a front stage by the weight of the variable synapse coupling. CONSTITUTION:Weighted connection lines 6 to 11 are respectively composed of a weight memory circuit 14 constituting the rewritable memory circuit and a multiplying circuit 15 to multiply the output of the neuron on the front stage by the weight of the weighted connection lines 6 to 11. Further, the weight of the weighted connection lines 6 to 11 is held by the weight memory circuit 14, the output of a neuron 1 is multiplyed by the weight held in the weight memory circuit 14 by the multiplying circuit 15, and the obtained value is inputted to a neuron 2 on a rear stage. Consequently, the variable synapse coupling having the weight >= a ternary which dynamically changes in a learning process can be realized by special hardware. Thus, the learning speed and processing speed can be improved.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ニューラルネットワーク装置に関し。[Detailed description of the invention] [Industrial application field] The present invention relates to a neural network device.

特に学習過程において動的に変化する3値以上の重みを
持つニューラルネットワークの重み付き接続線(以下可
変シナプス結合と呼ぶ)を専用ハードウェアで実現する
ニューラルネットワーク装置に関する。
In particular, the present invention relates to a neural network device that uses dedicated hardware to realize weighted connection lines (hereinafter referred to as variable synaptic connections) of a neural network that have three or more weights that dynamically change during the learning process.

〔従来技術〕[Prior art]

最近、半導体技術やコンピュータ技術の発展に伴い、再
び米国を中心としてニューラルネットワークに関する研
究が盛んになり、またLSIや光学素子を用いてニュー
ラルネットワークをハードウェアで実現することも提案
されている。
Recently, with the development of semiconductor technology and computer technology, research on neural networks has become active again mainly in the United States, and it has also been proposed to implement neural networks in hardware using LSIs and optical elements.

例えば、3層構層のニューラルネットワーク装置では、
ニューラルネットは入力層、中間層、および出力層から
構成され、各層を構成するユニットは各方向に可変シナ
プス結合で結ばれる。このため、あるユニットが複数の
入力を受ける場合、前段のユニットの出力と可変シナプ
ス結合の重みとの荷重総和が入力値となる。また入力層
の各ユニットに入力データを与えると、このデータは各
ユニットで変換されて中間層に伝わり、最後に出力層か
ら出力される。この際、実際の出力と望ましい出力(期
待値)とを比べ、その差が減少するように各可変シナプ
ス結合の重みを変化させる。
For example, in a three-layer neural network device,
A neural network consists of an input layer, a middle layer, and an output layer, and the units forming each layer are connected in each direction by variable synaptic connections. Therefore, when a certain unit receives a plurality of inputs, the total weight of the output of the previous unit and the weight of the variable synaptic connection becomes the input value. Furthermore, when input data is given to each unit in the input layer, this data is converted in each unit, transmitted to the intermediate layer, and finally output from the output layer. At this time, the actual output and the desired output (expected value) are compared, and the weight of each variable synaptic connection is changed so as to reduce the difference.

また、このようなニューラルネットにおける学習のアル
ゴズムとしては、逆伝搬法(バック・プロパゲーション
)が代表的である。
Furthermore, a typical learning algorithm in such a neural network is back propagation.

このバック°プロパゲーションでは、入力データを与え
て実際に得る出力値と期待値との差を縮めるように、可
変シナプス結合の重みを変化させる手順を、出力層から
中間層、中間層から入力層というように順次移して行い
、この手順を繰り返す。これにより、入力データに対し
て望ましい出力データが得られるように可変シナプス結
合の重みを収束していく。
In this backpropagation, the weights of variable synaptic connections are changed from the output layer to the intermediate layer, and from the intermediate layer to the input layer, so as to reduce the difference between the actual output value and the expected value given input data. Repeat this step. As a result, the weights of the variable synaptic connections are converged so that desired output data can be obtained for the input data.

また、可変シナプス結合をハードウェアで実現する場合
、従来は増幅器で実現したニューロンがらの出力、ある
いはニューロンへの入力を電気的に接続したり、切断し
たりする方法が採用されていた。
Furthermore, when implementing variable synaptic connections using hardware, the conventional method was to electrically connect or disconnect the outputs of neurons realized by amplifiers or the inputs to neurons.

この場合、可変シナプス結合の重みの値は−1(抑制性
接続あり)、O(接続なし)、+i(興奮性接続あり)
の3値を静的にプログラムすることが可能である。
In this case, the values of the variable synaptic connection weights are -1 (inhibitory connection present), O (no connection), +i (excitatory connection present)
It is possible to statically program three values.

なお、この種の装置として関連するものには。In addition, related to this type of device.

例えば特願昭63−113238号が挙げられる。For example, Japanese Patent Application No. 113238/1983 can be mentioned.

また、従来のニューラルネット装置については、例えば
″米国を中心に加速するニューロコンピュータの研究・
開発2日経エレクトロニクス(1987年1月26日号
Lpρ、159〜1702日経マグロウヒル社”におい
て論じられている。
Regarding conventional neural network devices, for example, ``neurocomputer research, which is accelerating mainly in the United States,
Development 2 Nikkei Electronics (January 26, 1987 issue Lpρ, 159-1702 Nikkei McGraw-Hill) is discussed.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記従来技術では、学習過程において動的に変化し、か
つ3値以上の重みを持つ可変シナプス結合を有するニュ
ーラルネットワーク、例えばバック・プロパゲーション
型ネットワークの可変シナプス結合の実現には適用でき
ないという問題があった・ 本発明の目的は、このような問題点を改善し、ニューラ
ルネットワークの可変シナプス結合を、書き換え可能な
記憶回路から構成された重み記憶回路と、前段のニュー
ロンの出力に可変シナプス結合の重みを乗算する乗算回
路とで構成することにより、学習過程において動的に変
化する3値以上の重みを持つニューラルネットワークの
可変シナプス結合をハードウェアで実現して、学習速度
および処理速度を向上するニューラルネットワーク装置
を提供することにある。
The problem with the above conventional technology is that it cannot be applied to the realization of variable synaptic connections in a neural network that dynamically changes during the learning process and has variable synaptic connections with weights of three or more values, such as a back propagation type network. The purpose of the present invention is to improve such problems and to replace the variable synaptic connections of a neural network by using a weight memory circuit composed of a rewritable memory circuit and a variable synaptic connection for the output of the previous stage neuron. By configuring it with a multiplier circuit that multiplies weights, it is possible to realize variable synaptic connections in hardware for neural networks with three or more weights that dynamically change during the learning process, improving learning speed and processing speed. An object of the present invention is to provide a neural network device.

〔課題を解決するための手段〕[Means to solve the problem]

上記目的を達成するため、本発明のニューラルネットワ
ーク装置は、学習過程において動的に変化する3値以上
の重みを持つ可変シナプス結合を有するニューラルネッ
トワーク装置において、重み付き接続線を、書き換え可
能な記憶回路から構成された重み記憶回路と、前段のニ
ューロンの出力に重み付き接続線の重みを乗算する乗算
回路とで構成し、その重み記憶回路で重み付き接続線の
重みを保持して、前段のニューロンの出力とその重み記
憶回路に保持された重みとをその乗算回路で乗算して、
後段のニューロンに入力することに特徴がある。
In order to achieve the above object, the neural network device of the present invention has variable synaptic connections with weights of three or more values that dynamically change during the learning process. It consists of a weight storage circuit made up of circuits, and a multiplication circuit that multiplies the output of the previous stage neuron by the weight of the weighted connection line.The weight storage circuit holds the weight of the weighted connection line, and The output of the neuron and the weight held in its weight storage circuit are multiplied by its multiplication circuit,
It is distinctive in that it inputs to later-stage neurons.

〔作用〕[Effect]

本発明においては、多層構造型ニューラルネットワーク
装置の可変シナプス結合を、書き換え可能な重み記憶回
路と、前段のニューロンの出力に可変シナプス結合の重
みを乗算する乗算回路とで構成することにより、学習過
程で動的に変化する3値以上の重みを持つ可変シナプス
結合を専用ハードウェアで実現することができる。
In the present invention, the variable synaptic connections of the multilayer neural network device are configured with a rewritable weight storage circuit and a multiplication circuit that multiplies the output of the previous stage neuron by the weight of the variable synaptic connections, thereby facilitating the learning process. Variable synaptic connections with three or more weights that dynamically change can be realized using dedicated hardware.

例えば、重み記憶回路としてレジスタを用いた場合、学
習過程における入力層のあるユニットと中間層のあるユ
ニットを結ぶ可変シナプス結合の重みを記憶するため、
中間層のユニットは重みの符号および絶対値を示す2進
数のデータをレジスタに書き込み、レジスタはこれを保
持する。
For example, when a register is used as a weight storage circuit, in order to store the weight of a variable synaptic connection connecting a certain unit in the input layer and a certain unit in the intermediate layer during the learning process,
The intermediate layer unit writes binary data indicating the sign and absolute value of the weight into a register, and the register holds this.

また、入力層のユニットの出カイ直を0.1の2値とし
、乗算回路をANDゲートで構成した場合、その出力値
が0であれば1乗算回路のANDゲートの片方への入力
がOとなり、中間層のユニットへの入力値はOとなる。
Furthermore, if the output value of the unit in the input layer is a binary value of 0.1 and the multiplication circuit is configured with an AND gate, if the output value is 0, the input to one of the AND gates of the multiplication circuit is 0. Therefore, the input value to the middle layer unit is O.

また入力層のユニットの出力値が1であれば、乗算回路
のANDゲートの片方への入力が1となり、ANDゲー
トの出力はレジスタの出力値と一致する。これにより、
前段のユニットの出力値に可変シナプス結合の重みを乗
算する。
Further, if the output value of the input layer unit is 1, the input to one of the AND gates of the multiplication circuit becomes 1, and the output of the AND gate matches the output value of the register. This results in
The output value of the previous unit is multiplied by the weight of the variable synaptic connection.

これらの回路で可変シナプス結合を構成することにより
、ニューラルネットワーク装置の学習速度および処理速
度を向上する。
By configuring variable synaptic connections using these circuits, the learning speed and processing speed of the neural network device can be improved.

〔実施例〕〔Example〕

以下、本発明の一実施例を図面により説明する。 An embodiment of the present invention will be described below with reference to the drawings.

第2図は、本発明を適用する多層構造型ニューラルネッ
トワークの構成図である。
FIG. 2 is a configuration diagram of a multilayer neural network to which the present invention is applied.

第2図において、1は入力層のユニット(A。In FIG. 2, 1 is an input layer unit (A.

B)、2は中間層のユニット(C,D)、3は出力層の
ユニット(E)である。また、矢印の付加された線6〜
11は重みを有する接続線(可変シナプス結合)、4,
5は入力層のユニットへの入力線、12は出力層のユニ
ットからの出力線である。なお、各1間の可変シナプス
結合には適当なアルゴリズム(例えばバック・プロパゲ
ーション・アルゴリズム)によって決定される重みが与
えられる。
B), 2 is an intermediate layer unit (C, D), and 3 is an output layer unit (E). Also, line 6 with an arrow added
11 is a connection line with weight (variable synaptic connection), 4,
5 is an input line to the input layer unit, and 12 is an output line from the output layer unit. Note that each variable synaptic connection between each one is given a weight determined by a suitable algorithm (eg, back propagation algorithm).

例えば、入力層のユニット1と中間層の二ニット2を結
ぶ可変シナプス結合の重みが+0.8で。
For example, the weight of the variable synaptic connection connecting unit 1 in the input layer and unit 2 in the hidden layer is +0.8.

ユニット1の出力が1の場合には、ユニット1からユニ
ット2への入力値は+0.8となる。
When the output of unit 1 is 1, the input value from unit 1 to unit 2 is +0.8.

第1図は、本発明の一実施例における多層構造型ニュー
ラルネットワーク装置の層間を接続する可変シナプス結
合の構成図、第3図は本発明の一実施例における可変シ
ナプス結合の乗算回路の構成図である。
FIG. 1 is a configuration diagram of a variable synaptic connection connecting layers of a multilayer neural network device according to an embodiment of the present invention, and FIG. 3 is a configuration diagram of a multiplication circuit of variable synaptic connections according to an embodiment of the present invention. It is.

第1図において、13は入力層のユニット1と中間層の
ユニット2を接続する可変シナプス結合、14は書き換
え可能な重み記憶回路、15は(出力)×(重み)の乗
算回路、16は乗算回路15への入力線、17はユニッ
ト2からの出力線、18は重み記憶回路14への信号線
、19は乗算回路15への入力線、2oはユニット2へ
の入力線である。
In FIG. 1, 13 is a variable synaptic connection connecting input layer unit 1 and intermediate layer unit 2, 14 is a rewritable weight memory circuit, 15 is an (output) x (weight) multiplication circuit, and 16 is a multiplication circuit. An input line to the circuit 15, 17 an output line from the unit 2, 18 a signal line to the weight storage circuit 14, 19 an input line to the multiplication circuit 15, and 2o an input line to the unit 2.

また、接続線の重みを−0,1、−0,8,−0゜6、
−〇、4、−0.2.O1+0.2、+ ’0 、4、
+0.6、+0.8.+1.0という11個の値で与え
るものとし、適当な学習アルゴリズムにより重みの値が
動的に変化するものとする。またニューロンの出力値を
0または1の2値とする。
Also, the weights of the connection lines are -0, 1, -0, 8, -0°6,
-○, 4, -0.2. O1+0.2,+'0,4,
+0.6, +0.8. It is assumed that 11 values of +1.0 are given, and the weight values are dynamically changed by an appropriate learning algorithm. Further, the output value of the neuron is assumed to be binary, 0 or 1.

まず、重み記憶回路14の動作について述べる。First, the operation of the weight storage circuit 14 will be described.

なお、本実施例では重み記憶回路としてレジスタを用い
る。
Note that in this embodiment, a register is used as the weight storage circuit.

いま、学習過程でのある時刻におけるユニット1とユニ
ッ、ト2を結ぶ可変シナプス結合13の重みが+0.8
であったとする。
Now, the weight of the variable synaptic connection 13 connecting unit 1 and unit 2 at a certain time in the learning process is +0.8.
Suppose it was.

この場合、ユニット2は入力線18を介して、重み記憶
回路であるレジスタ14に2進数で「1101」という
データを書き込む、なお、このデータの第1ビツトは重
みの符号を示しく1のとき正、0のときOまたは負)、
残り3ビツトは重みの絶対値を与える。
In this case, the unit 2 writes the data "1101" in binary to the register 14, which is a weight storage circuit, via the input line 18. Note that the first bit of this data indicates the sign of the weight. positive, O or negative when 0),
The remaining 3 bits give the absolute value of the weight.

これにより、第1ビツトが1なので重みの符号は正、残
り3ビツトは2進数で「101」なので10進数で5を
示し、重みの絶対値は5である。
As a result, since the first bit is 1, the sign of the weight is positive, and the remaining 3 bits are "101" in binary, so they represent 5 in decimal, and the absolute value of the weight is 5.

従って、0から数えて5番目の重み、つまり+0゜8と
なる。
Therefore, it becomes the fifth weight counting from 0, that is, +0°8.

このように1本実施例ではレジスタ14によって可変シ
ナプス結合13の重みを記憶する。
In this way, in this embodiment, the weight of the variable synaptic connection 13 is stored by the register 14.

次に、乗算回路15の動作について述べる。なお、本実
施例では、第3図のように乗算回路15をANDゲート
21で構成し、これによりニューロンの2値の出力に3
値以上の重みを乗算する。
Next, the operation of the multiplication circuit 15 will be described. In this embodiment, the multiplication circuit 15 is configured with an AND gate 21 as shown in FIG.
Multiply by a weight greater than or equal to the value.

例えば、入力層のユニット1の出方が0の場合、(出力
)×(重み)の乗算回路15内にあるANDゲート21
への片方の入力が0となるため、その出力はレジスタ1
4の出力値に拘らず0となり、ユニット2への入カイ直
も0となる。またユニットAの出力が1の場合には、(
出力)×(重み)の乗算回路15内にあるANDゲート
21への片方の入力が1となるため、その出力はレジス
タ14の出方値と一致する。
For example, if the output of unit 1 in the input layer is 0, the AND gate 21 in the (output) x (weight) multiplication circuit 15
Since one input to is 0, its output is register 1
It becomes 0 regardless of the output value of unit 4, and the direct input to unit 2 also becomes 0. Also, if the output of unit A is 1, (
Since one input to the AND gate 21 in the (output)×(weight) multiplication circuit 15 becomes 1, its output matches the output value of the register 14.

このように、(出力)×(重み)の乗算回路15は入力
層のユニット1の出力(0または1)と可変シナプス結
合の重みを乗算する。
In this way, the (output)×(weight) multiplication circuit 15 multiplies the output (0 or 1) of the unit 1 of the input layer by the weight of the variable synaptic connection.

なお、本実施例では、入力層のユニット1と中間層のユ
ニット2とを結ぶ可変シナプス結合13について述べた
が、他のシナプス結合についても同様に専用ハードウェ
アで実現できる。
In this embodiment, the variable synaptic connection 13 connecting the input layer unit 1 and the intermediate layer unit 2 has been described, but other synaptic connections can be similarly realized using dedicated hardware.

また、重みの値の数を11個とした場合について述べた
が、この数は容易に拡張することができることも明らか
である。
Further, although the case has been described in which the number of weight values is 11, it is clear that this number can be easily expanded.

さらに、ニューロンの出力値を0,1の2値とした場合
について述べたが、0.1の2値以外である場合につい
ても、本実施例を応用することにより容易に可変シナプ
ス結合を専用ハードウェアで構成することができる。
Furthermore, although the case where the output value of the neuron is set to two values of 0 and 1 has been described, by applying this embodiment, variable synaptic connections can be easily created using dedicated hardware even for cases where the output value of the neuron is set to two values of 0 and 1. Can be configured with ware.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、ニューラルネットワークの可変シナプ
ス結合を、書き換え可能な記憶回路と乗算回路とで構成
できるため、学習過程において動的に変化する3値以上
の重みを持つニューラルネットワークの可変シナプス結
合を専用ハードウェアで実現することが可能である。
According to the present invention, the variable synaptic connections of a neural network can be configured with a rewritable memory circuit and a multiplication circuit, so that the variable synaptic connections of a neural network with weights of three or more values that dynamically change during the learning process can be configured with a rewritable memory circuit and a multiplication circuit. It is possible to realize this with dedicated hardware.

また、汎用ハードウェア上にソフトウェアで可変シナプ
ス結合を実現する方法に比べ、学習速度および処理速度
を向上することができる。
Furthermore, compared to a method of realizing variable synaptic connections using software on general-purpose hardware, learning speed and processing speed can be improved.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例における多層構造型ニューラ
ルネットワーク装置の層間を接続する可変シナプス結合
の構成図、第2図は本発明を適用する多層構造型ニュー
ラルネットワークの構成図、第3図は本発明の一実施例
における可変シナプス結合の乗算回路の構成図である。 1:入力層のユニット(A、B)、2 :中間層のユニ
ット(C,D)、3 :出力層のユニット(E)。 4.5:入力層のユニットへの入力線、6〜11:重み
を有する接続線(可変シナプス結合)、12:出力層の
ユニットからの出力線、13:可変シナプス結合、14
:書き換え可能な重み記憶回路(レジスタ)、15:(
出力)×(重み)の乗算回路。 16二乗算回路15への入力線、17:ユニット2から
の出力線、18:重み記憶回路14への信号線、19:
乗算回路15への入力線、2o:ユニット2への入力線
。 特許出願人 日本電信電話株式会社 代理人 弁理士 磯 村 雅 俊
FIG. 1 is a configuration diagram of variable synaptic connections connecting layers of a multilayer neural network device according to an embodiment of the present invention, FIG. 2 is a configuration diagram of a multilayer neural network to which the present invention is applied, and FIG. 3 1 is a configuration diagram of a multiplier circuit with variable synaptic connections in an embodiment of the present invention. FIG. 1: Input layer units (A, B), 2: Intermediate layer units (C, D), 3: Output layer units (E). 4.5: Input line to input layer unit, 6 to 11: Connection line with weight (variable synaptic connection), 12: Output line from output layer unit, 13: Variable synaptic connection, 14
:Writable weight storage circuit (register), 15:(
Output) x (weight) multiplication circuit. 16: Input line to squaring circuit 15, 17: Output line from unit 2, 18: Signal line to weight storage circuit 14, 19:
Input line to multiplication circuit 15, 2o: input line to unit 2. Patent applicant: Nippon Telegraph and Telephone Corporation Agent: Masatoshi Isomura

Claims (1)

【特許請求の範囲】[Claims] (1) 学習過程において動的に変化する3値以上の重
みを持つ重み付き接続線を有するニューラルネットワー
ク装置において、該重み付き接続線を、書き換え可能な
記憶回路で構成した重み記憶回路と、前段のニューロン
の出力に該重み付き接続線の重みを乗算する乗算回路と
で構成し、該重み記憶回路で該重み付き接続線の重みを
保持して、前段のニューロンの出力と該重み記憶回路に
保持された重みとを該乗算回路で乗算して、後段のニュ
ーロンに入力することを特徴とするニューラルネットワ
ーク装置。
(1) In a neural network device having a weighted connection line with weights of three or more values that dynamically change during the learning process, the weighted connection line is connected to a weight storage circuit configured with a rewritable storage circuit and a previous stage. and a multiplier circuit that multiplies the output of the neuron in the weighted connection line by the weight of the weighted connection line, and the weight of the weighted connection line is held in the weight storage circuit, and the output of the neuron in the previous stage is stored in the weight storage circuit. A neural network device characterized in that the multiplication circuit multiplies the held weights and inputs the result to a subsequent neuron.
JP63195035A 1988-08-04 1988-08-04 Neural network device Pending JPH0243665A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63195035A JPH0243665A (en) 1988-08-04 1988-08-04 Neural network device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63195035A JPH0243665A (en) 1988-08-04 1988-08-04 Neural network device

Publications (1)

Publication Number Publication Date
JPH0243665A true JPH0243665A (en) 1990-02-14

Family

ID=16334459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63195035A Pending JPH0243665A (en) 1988-08-04 1988-08-04 Neural network device

Country Status (1)

Country Link
JP (1) JPH0243665A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0540839A (en) * 1991-08-02 1993-02-19 Fujitsu Ltd Image forming device
US5287533A (en) * 1990-06-28 1994-02-15 Sharp Kabushiki Kaisha Apparatus for changing individual weight value of corresponding synaptic connection for succeeding learning process when past weight values satisfying predetermined condition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5287533A (en) * 1990-06-28 1994-02-15 Sharp Kabushiki Kaisha Apparatus for changing individual weight value of corresponding synaptic connection for succeeding learning process when past weight values satisfying predetermined condition
JPH0540839A (en) * 1991-08-02 1993-02-19 Fujitsu Ltd Image forming device

Similar Documents

Publication Publication Date Title
US5095457A (en) Digital multiplier employing CMOS transistors
US5444822A (en) Semiconductor integrated circuit device carrying out parallel operational processing with electronically implemented neural network
US6151594A (en) Artificial neuron and method of using same
US5257218A (en) Parallel carry and carry propagation generator apparatus for use with carry-look-ahead adders
CN113805842B (en) Integrative device of deposit and calculation based on carry look ahead adder realizes
KR950001601B1 (en) Neural network circuit
US12217019B2 (en) Processing-in-memory devices having multiplication-and-accumulation circuits
JPH05282272A (en) Neural network parallel distribution processor
US5016211A (en) Neural network implementation of a binary adder
US5347613A (en) MOS multi-layer neural network including a plurality of hidden layers interposed between synapse groups for performing pattern recognition
TWI858359B (en) Memory devices, computing devices, and methods for in-memory computing
JP2760170B2 (en) Learning machine
KR930009065B1 (en) Multilayer neural network and method of its circuit design
US5586223A (en) High speed segmented neural network and fabrication method
CN116523011B (en) Memristor-based binary neural network layer circuit and binary neural network training method
JPH0243665A (en) Neural network device
EP0841621B1 (en) Learning method in binary systems
JPH07210534A (en) Neural network
JPH04182769A (en) Digital neuro processor
JPH04237388A (en) Neuro processor
JPH05165987A (en) Signal processor
JPH05128285A (en) Nyuro Processor
Chhabra et al. A design approach for mac unit using vedic multiplier
US20240378018A1 (en) Adder circuits for floating-point operation
JPH10207691A (en) Fast incrementor by array method