JPH04112355A - 自己学習型アナログ方式ニューロン回路 - Google Patents
自己学習型アナログ方式ニューロン回路Info
- Publication number
- JPH04112355A JPH04112355A JP2233875A JP23387590A JPH04112355A JP H04112355 A JPH04112355 A JP H04112355A JP 2233875 A JP2233875 A JP 2233875A JP 23387590 A JP23387590 A JP 23387590A JP H04112355 A JPH04112355 A JP H04112355A
- Authority
- JP
- Japan
- Prior art keywords
- analog
- processing
- signal
- input
- circuit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は入力情報の並列分散処理か可能なニューラルネ
ットワークを構成するニューロン回路に関し、より詳し
くは誤差逆伝播処理により自己学習の可能なアナログ方
式のニューロン回路に関する。
ットワークを構成するニューロン回路に関し、より詳し
くは誤差逆伝播処理により自己学習の可能なアナログ方
式のニューロン回路に関する。
近年、曖昧な情報処理に適したニューラルネットワーク
を認識問題や信号処理に応用する研究が盛んに行なわれ
ている。かかる分野においては入力情報の実時間処理が
要求される事が多く、いわゆるノイマン方式に基づく逐
次計算機を用いたシミュレーションでは処理時間か長く
なる為、専用ハードウェアが必要とされている。LSI
技術を用いてハードウェア化する方法としては、大別し
てアナログ方式とディジタル方式がある。ディジタル方
式は高精度化が容易である一方シナップスやニューロン
回路を構成する為に必要な素子数が膨大となり実際には
高集積化が困難である。この点、アナログ方式において
は必要な素子数が比較的少ない為高集積度化が可能であ
る。かかるアナログ方式のニューラルネットワークの一
例が、例えば電子情報通信学会技術研究報告lCD90
−1に開示されている。開示されたニューラルネットワ
ークの各ノードに配置されるアナログニューロン回路を
第8図に示す。図において、xlないしX は複数の入
力信号であり、WlないしW。
を認識問題や信号処理に応用する研究が盛んに行なわれ
ている。かかる分野においては入力情報の実時間処理が
要求される事が多く、いわゆるノイマン方式に基づく逐
次計算機を用いたシミュレーションでは処理時間か長く
なる為、専用ハードウェアが必要とされている。LSI
技術を用いてハードウェア化する方法としては、大別し
てアナログ方式とディジタル方式がある。ディジタル方
式は高精度化が容易である一方シナップスやニューロン
回路を構成する為に必要な素子数が膨大となり実際には
高集積化が困難である。この点、アナログ方式において
は必要な素子数が比較的少ない為高集積度化が可能であ
る。かかるアナログ方式のニューラルネットワークの一
例が、例えば電子情報通信学会技術研究報告lCD90
−1に開示されている。開示されたニューラルネットワ
ークの各ノードに配置されるアナログニューロン回路を
第8図に示す。図において、xlないしX は複数の入
力信号であり、WlないしW。
は個々の入力信号に対応したシナップス結合荷重である
。さらに、yは出力信号を表わす。この回路は個々のシ
ナップス結合荷重w1ないしWnの量に応じた電荷を保
持する為の結合荷重回路群W1ないしW。を含んでいる
。さらに、個々のアナログ入力信号x1ないしXnに対
応した乗算器群を具備している。各乗算器は特定の入力
信号と対応する結合荷重回路から供給されるシナップス
結合荷重の乗算処理を実行する。この乗算器群は加算器
に接続されており、個々の乗算結果の加算処理が行なわ
れる。この加算器には非線形関数回路が接続されており
、加算結果に対して所定の非線形処理を行ない出力信号
yを生成している。即ち、第8図に示すニューロン回路
は複数の入力信号と複数の対応するシナップス結合荷重
との積和演算を実行し出力信号を得るものである。従っ
て、出力信号と入力信号との間には以下に示す関係式が
成立する。
。さらに、yは出力信号を表わす。この回路は個々のシ
ナップス結合荷重w1ないしWnの量に応じた電荷を保
持する為の結合荷重回路群W1ないしW。を含んでいる
。さらに、個々のアナログ入力信号x1ないしXnに対
応した乗算器群を具備している。各乗算器は特定の入力
信号と対応する結合荷重回路から供給されるシナップス
結合荷重の乗算処理を実行する。この乗算器群は加算器
に接続されており、個々の乗算結果の加算処理が行なわ
れる。この加算器には非線形関数回路が接続されており
、加算結果に対して所定の非線形処理を行ない出力信号
yを生成している。即ち、第8図に示すニューロン回路
は複数の入力信号と複数の対応するシナップス結合荷重
との積和演算を実行し出力信号を得るものである。従っ
て、出力信号と入力信号との間には以下に示す関係式が
成立する。
y 駆f (x 1’ w t 十X 2 ” w2
+”・+x n ”n)ところで、ニューラルネットワ
ークは学習機能を有する点に特徴がある。この学習機能
は出力信号と教師信号とを比較した結果を逐次フィード
バックしシナップス結合荷重の修正を繰り返し行なう事
により完全な出力信号が得られる様にするものである。
+”・+x n ”n)ところで、ニューラルネットワ
ークは学習機能を有する点に特徴がある。この学習機能
は出力信号と教師信号とを比較した結果を逐次フィード
バックしシナップス結合荷重の修正を繰り返し行なう事
により完全な出力信号が得られる様にするものである。
この為に、各ニューロン回路におけるシナップス結合荷
重の逐次的な修正更新処理が必要となる。従来のアナロ
グ方式ニューラルネットワークにおいては入力信号の高
速な並列分散処理を行なっているにも拘らず、学習によ
りシナップス結合荷重を修正更新し収束させる過程はノ
イマン方式を用いたソフトウェアによる逐次計算処理に
より行なわれていた。従って、学習速度が遅いという欠
点があった。
重の逐次的な修正更新処理が必要となる。従来のアナロ
グ方式ニューラルネットワークにおいては入力信号の高
速な並列分散処理を行なっているにも拘らず、学習によ
りシナップス結合荷重を修正更新し収束させる過程はノ
イマン方式を用いたソフトウェアによる逐次計算処理に
より行なわれていた。従って、学習速度が遅いという欠
点があった。
ところで、シナップス結合荷重の修正演算を別経路で行
なうのではなく、入力信号の完全並列処理と同様にニュ
ーラルネットワークを介して自己学習を行なう方式が提
案されている。例えば、1990年電子情報通信学会春
季全国大会D−56には出力信号と教師信号の差に応じ
た誤差信号をニューラルネットワークに逆伝播させてシ
ナップス結合荷重の自動的な修正を行なう事のできるニ
ューロン回路が開示されている。
なうのではなく、入力信号の完全並列処理と同様にニュ
ーラルネットワークを介して自己学習を行なう方式が提
案されている。例えば、1990年電子情報通信学会春
季全国大会D−56には出力信号と教師信号の差に応じ
た誤差信号をニューラルネットワークに逆伝播させてシ
ナップス結合荷重の自動的な修正を行なう事のできるニ
ューロン回路が開示されている。
しかしながら、上述した誤差逆伝播方式により自己学習
の可能なニューロン回路はアナログ方式ではなく、デー
タの数値がパルス密度で表わされたいわゆるパルス密度
方式による回路構成となっている。このパルス密度方式
においては一定時間内におけるパルス数により入力デー
タが表現されている為処理の時間的な遅れを避ける事か
できないという問題点かある。さらに、パルス密度方式
では、本来連続量の論理演算を行なうべきであるにも拘
らずパルス数を用いた近似的な論理演算により情報処理
を行なっているので本来の連続性が失なわれ処理誤差が
大きくなるという問題点がある。この為自己学習過程に
おいてシナップス結合荷重が収束しにくいという問題点
がある。
の可能なニューロン回路はアナログ方式ではなく、デー
タの数値がパルス密度で表わされたいわゆるパルス密度
方式による回路構成となっている。このパルス密度方式
においては一定時間内におけるパルス数により入力デー
タが表現されている為処理の時間的な遅れを避ける事か
できないという問題点かある。さらに、パルス密度方式
では、本来連続量の論理演算を行なうべきであるにも拘
らずパルス数を用いた近似的な論理演算により情報処理
を行なっているので本来の連続性が失なわれ処理誤差が
大きくなるという問題点がある。この為自己学習過程に
おいてシナップス結合荷重が収束しにくいという問題点
がある。
上述した従来の技術の問題点に鑑み、本発明はアナログ
入力信号の完全並列処理に加えてアナログ量で表わされ
た誤差信号の逆伝播処理を可能とする完全アナログ方式
ニューロン回路を提供する事を目的とする。即ち、アナ
ログ量を用いた入力情報の高速処理と精度の高い学習及
びシナップス結合荷重の迅速な収束を可能とするアナロ
グ方式ニューロン回路を提供する事を目的とする。
入力信号の完全並列処理に加えてアナログ量で表わされ
た誤差信号の逆伝播処理を可能とする完全アナログ方式
ニューロン回路を提供する事を目的とする。即ち、アナ
ログ量を用いた入力情報の高速処理と精度の高い学習及
びシナップス結合荷重の迅速な収束を可能とするアナロ
グ方式ニューロン回路を提供する事を目的とする。
上述した目的を達成する為に、本発明にかかる自己学習
型アナログ方式ニューロン回路は第1図に示す基本的構
成を有する。図示する様に、ニューロン回路は順処理手
段Aと内部処理手段Bと更新手段Cと逆処理手段りとで
構成されている。
型アナログ方式ニューロン回路は第1図に示す基本的構
成を有する。図示する様に、ニューロン回路は順処理手
段Aと内部処理手段Bと更新手段Cと逆処理手段りとで
構成されている。
順処理手段Aは、複数の順入力アナログ信号X。
を受け複数の対応するシナップス結合荷重W、との間の
積和処理を行ない順出力アナログ信号yを生成する為の
アナログ回路から構成されている。
積和処理を行ない順出力アナログ信号yを生成する為の
アナログ回路から構成されている。
又、内部処理手段Bは、複数の逆入力誤差信号Δy、を
受け該順出力アナログ信号yを用いた処理を行なって内
部修正信号を生成する為のアナログ回路から構成されて
いる。さらに、更新手段Cは、該内部修正信号と個々の
順入力アナログ信号X、との処理を行ない個々のシナッ
プス結合荷重修正量を演算するとともに該修正量に従っ
て対応するシナップス結合荷重W、の修正あるいは更新
を行なう為のアナログ回路から構成されている。
受け該順出力アナログ信号yを用いた処理を行なって内
部修正信号を生成する為のアナログ回路から構成されて
いる。さらに、更新手段Cは、該内部修正信号と個々の
順入力アナログ信号X、との処理を行ない個々のシナッ
プス結合荷重修正量を演算するとともに該修正量に従っ
て対応するシナップス結合荷重W、の修正あるいは更新
を行なう為のアナログ回路から構成されている。
加えて、逆処理手段りは、該内部修正信号と個々のシナ
ップス結合荷重W、との処理を行ない複数の逆出力誤差
信号ΔX、を生成する為のアナログ回路から構成されて
いる。かかる構成を有するニューロン回路を複数接続す
る事により階層構造を有するニューラルネットワークを
構築する事ができる。このニューラルネットワークは、
アナログ信号の順方向並列分散処理を高速で行なうとと
もに、最終順出力アナログ信号と所定の教師信号との差
に応じた誤差信号の逆方向伝播処理を行ない各ニューロ
ン回路のシナップス結合荷重の内部修正あるいは自己修
正を実行して自己学習を可能とする。
ップス結合荷重W、との処理を行ない複数の逆出力誤差
信号ΔX、を生成する為のアナログ回路から構成されて
いる。かかる構成を有するニューロン回路を複数接続す
る事により階層構造を有するニューラルネットワークを
構築する事ができる。このニューラルネットワークは、
アナログ信号の順方向並列分散処理を高速で行なうとと
もに、最終順出力アナログ信号と所定の教師信号との差
に応じた誤差信号の逆方向伝播処理を行ない各ニューロ
ン回路のシナップス結合荷重の内部修正あるいは自己修
正を実行して自己学習を可能とする。
本発明の御飯様によれば、内部処理手段Bは、複数の逆
入力誤差信号を加算する為のアナログ加算回路と、順出
力アナログ信号を非線形処理する為のアナログ非線形関
数器と、加算された逆入力誤差信号と非線形処理された
順出力アナログ信号を乗算し内部修正信号を出力する為
のアナログ乗算器とから構成されている。又、該更新手
段Cは、内部修正信号と個々の順入力アナログ信号を乗
算し個々のシナップス結合荷重修正量を演算する為のア
ナログ乗算器群と、個々のシナップス結合荷重量を保持
するとともに対応するシナップス結合荷重修正量の入力
を受け積分処理を行なう事により保持するシナップス結
合荷重量の修正更新を行なう為のアナログ積分器群とか
ら構成されている。
入力誤差信号を加算する為のアナログ加算回路と、順出
力アナログ信号を非線形処理する為のアナログ非線形関
数器と、加算された逆入力誤差信号と非線形処理された
順出力アナログ信号を乗算し内部修正信号を出力する為
のアナログ乗算器とから構成されている。又、該更新手
段Cは、内部修正信号と個々の順入力アナログ信号を乗
算し個々のシナップス結合荷重修正量を演算する為のア
ナログ乗算器群と、個々のシナップス結合荷重量を保持
するとともに対応するシナップス結合荷重修正量の入力
を受け積分処理を行なう事により保持するシナップス結
合荷重量の修正更新を行なう為のアナログ積分器群とか
ら構成されている。
さらに、該逆処理手段りは、該内部修正信号と更新され
た個々のシナップス結合荷重との乗算処理を行ない複数
の逆出力誤差信号を生成する為のアナログ乗算器群を含
む構成となっている。
た個々のシナップス結合荷重との乗算処理を行ない複数
の逆出力誤差信号を生成する為のアナログ乗算器群を含
む構成となっている。
本発明にかかるニューラルネットワークにおいては、そ
の自己学習機能により各ニューロン回路に含まれるシナ
ップス結合荷重を変化させ且つ収束させている。その為
、各ニューロン回路は、アナログ情報信号をニューラル
ネットワークの前段側から後段側に向って伝播する順方
向信号経路に加えて、ニューラルネットワークの後段側
から前段側へ向って誤差信号を伝播する逆方向信号経路
とを備えている。各ニューロン回路内における順方向信
号経路と逆方向信号経路との間における相互作用により
シナップス結合荷重は自動的に修正される。かかるニュ
ーロン回路を複数用いてリアルタイム処理の可能なニュ
ーラルネットワークを実現する事かできる。ここで、各
ニューロン回路は逆伝播される誤差信号に従って必要な
内部修正信号を形成する内部処理部分とニューラルネッ
トワークの前段側に対して誤差信号をフィードバックす
る為の逆処理部分とを有している。これらの処理はいわ
ゆるルーメルハートの誤差逆伝播学習則に基づいて実行
される。これらの処理部分は全てアナログ形式の回路に
より構成されており、情報の順方向伝播ばかりでなく誤
差の逆方向伝播をも高速で行なう事のできるハードウェ
ア構成を得る事ができる。
の自己学習機能により各ニューロン回路に含まれるシナ
ップス結合荷重を変化させ且つ収束させている。その為
、各ニューロン回路は、アナログ情報信号をニューラル
ネットワークの前段側から後段側に向って伝播する順方
向信号経路に加えて、ニューラルネットワークの後段側
から前段側へ向って誤差信号を伝播する逆方向信号経路
とを備えている。各ニューロン回路内における順方向信
号経路と逆方向信号経路との間における相互作用により
シナップス結合荷重は自動的に修正される。かかるニュ
ーロン回路を複数用いてリアルタイム処理の可能なニュ
ーラルネットワークを実現する事かできる。ここで、各
ニューロン回路は逆伝播される誤差信号に従って必要な
内部修正信号を形成する内部処理部分とニューラルネッ
トワークの前段側に対して誤差信号をフィードバックす
る為の逆処理部分とを有している。これらの処理はいわ
ゆるルーメルハートの誤差逆伝播学習則に基づいて実行
される。これらの処理部分は全てアナログ形式の回路に
より構成されており、情報の順方向伝播ばかりでなく誤
差の逆方向伝播をも高速で行なう事のできるハードウェ
ア構成を得る事ができる。
以下図面を参照して本発明の好適な実施例を詳細に説明
する。第2図は本発明にかかる自己学習型アナログ方式
ニューロン回路の具体的構成を示す回路ブロック図であ
る。図において、xlないしX はN個の前段側ニュー
ロン回路から供給される複数の順方向人力信号を示し、
ylな(化y はM個の後段側ニューロン回路に送出さ
れる共通の順出力アナログ信号を示す。又、Δy1ない
しΔy はM個の後段側ニューロン回路から供給される
複数の逆入力誤差信号を示し、ΔX1ないしΔX はN
個の前段側ニューロン回路に送出口 される複数の逆出力誤差信号を示す。1、ないし1.2
ないし2n131ないし3゜、および9はアナログ乗
算器を示す。41ないし4nはアナログ積分器を示し、
5および8はアナログ加算器を示し、6および7は非線
形関数器を示す。非線形関数器6の具体例としては例え
ば次式で示すシグモイド関数特性を有するものが用いら
れる。
する。第2図は本発明にかかる自己学習型アナログ方式
ニューロン回路の具体的構成を示す回路ブロック図であ
る。図において、xlないしX はN個の前段側ニュー
ロン回路から供給される複数の順方向人力信号を示し、
ylな(化y はM個の後段側ニューロン回路に送出さ
れる共通の順出力アナログ信号を示す。又、Δy1ない
しΔy はM個の後段側ニューロン回路から供給される
複数の逆入力誤差信号を示し、ΔX1ないしΔX はN
個の前段側ニューロン回路に送出口 される複数の逆出力誤差信号を示す。1、ないし1.2
ないし2n131ないし3゜、および9はアナログ乗
算器を示す。41ないし4nはアナログ積分器を示し、
5および8はアナログ加算器を示し、6および7は非線
形関数器を示す。非線形関数器6の具体例としては例え
ば次式で示すシグモイド関数特性を有するものが用いら
れる。
又非線形関数器7としては例えば次式に示す関数特性を
有するものが用いられる。
有するものが用いられる。
g (x) =x (1−x)
N個の乗算器群1、ないし1n、N個の乗算器群2 な
いし2 、N個の乗算器群3、ないしn 3 およびN個の積分器群4Iないし4゜は各々N個の
順入力アナログ信号x1ないしX。に対応して分割配置
されている。例えば、乗算器1、の一方の入力端子には
順入力アナログ信号x1が印加され、他方の入力端子に
は積分器4□に保持されているシナップス結合荷重Wl
が印加される。
いし2 、N個の乗算器群3、ないしn 3 およびN個の積分器群4Iないし4゜は各々N個の
順入力アナログ信号x1ないしX。に対応して分割配置
されている。例えば、乗算器1、の一方の入力端子には
順入力アナログ信号x1が印加され、他方の入力端子に
は積分器4□に保持されているシナップス結合荷重Wl
が印加される。
その出力端子は共通に加算器5に接続されている。
又乗算器21の一方の入力端子には順入力アナログ信号
x1が印加され、他方の入力端子にはアナログ乗算器9
から供給される内部修正信号が印加される。その出力端
子に現われるシナップス結合荷重修正量ΔW は積分器
4□に加えられす る。さらに、乗算器3、の一方の入力端子には内部修正
信号か印加され、他方の入力端子には積分器4 に保持
されているシナップス結合荷重W1が印加される。この
乗算器3、の出力端子には逆出力誤差信号Δx1が現わ
れる。加算器5はN個の乗算器群工□ないし1゜の出力
端子に接続されているとともに、加算器5の出力端子は
非線形関数器6に接続されている。この非線形関数器6
の出力端子には順出力アナログ信号y (yIないしy
)が現われる。さらに、非線形関数器6の出力端子は
非線形関数器7の入力端子に接続されている。加算器8
の入力端子にはM個の逆入力誤差信号Δy1ないしΔy
IIが印加されている。この非線形関数器7の出力端子
と加算器8の出力端子は乗算器9の一対の入力端子に接
続されており、乗算器9の出力端子には前述した様に内
部修正信号か現われる。
x1が印加され、他方の入力端子にはアナログ乗算器9
から供給される内部修正信号が印加される。その出力端
子に現われるシナップス結合荷重修正量ΔW は積分器
4□に加えられす る。さらに、乗算器3、の一方の入力端子には内部修正
信号か印加され、他方の入力端子には積分器4 に保持
されているシナップス結合荷重W1が印加される。この
乗算器3、の出力端子には逆出力誤差信号Δx1が現わ
れる。加算器5はN個の乗算器群工□ないし1゜の出力
端子に接続されているとともに、加算器5の出力端子は
非線形関数器6に接続されている。この非線形関数器6
の出力端子には順出力アナログ信号y (yIないしy
)が現われる。さらに、非線形関数器6の出力端子は
非線形関数器7の入力端子に接続されている。加算器8
の入力端子にはM個の逆入力誤差信号Δy1ないしΔy
IIが印加されている。この非線形関数器7の出力端子
と加算器8の出力端子は乗算器9の一対の入力端子に接
続されており、乗算器9の出力端子には前述した様に内
部修正信号か現われる。
かかる構成を有する回路において、N個の乗算器群1□
ないし1゜と加算器5と非線形関数器6は順出力アナロ
グ信号yを生成する為の順処理手段を構成する。又、非
線形関数器7と加算器8と乗算器9は内部修正信号を生
成する為の内部処理手段を構成する。さらに、N個の積
分器4、ないし4 とN個の乗算器21ないし2nはシ
ナッブス結合荷重w1ないしW。の修正更新を行なう為
の更新手段を構成する。加えて、N個の乗算器3 ない
し3 は複数の逆出力誤差信号ΔX1な1n いしΔX を生成する為の逆処理手段を構成する。
ないし1゜と加算器5と非線形関数器6は順出力アナロ
グ信号yを生成する為の順処理手段を構成する。又、非
線形関数器7と加算器8と乗算器9は内部修正信号を生
成する為の内部処理手段を構成する。さらに、N個の積
分器4、ないし4 とN個の乗算器21ないし2nはシ
ナッブス結合荷重w1ないしW。の修正更新を行なう為
の更新手段を構成する。加えて、N個の乗算器3 ない
し3 は複数の逆出力誤差信号ΔX1な1n いしΔX を生成する為の逆処理手段を構成する。
引き続き第2図を参照して本発明にかかるニューロン回
路の動作を詳細に説明する。先ず順処理手段の動作を説
明する。N個の積分器4□ないし4 の出力端子には個
々の順入力アナログ信号x1ないしXnに対応したシナ
ップス結合荷重w1ないしW。がアナログ量として供給
されている。個々の乗算器11ないし1゜は各々対応し
た順入力アナログ信号x1ないしXnとシナップス結合
荷重w1ないしW。との乗算処理を行なう。
路の動作を詳細に説明する。先ず順処理手段の動作を説
明する。N個の積分器4□ないし4 の出力端子には個
々の順入力アナログ信号x1ないしXnに対応したシナ
ップス結合荷重w1ないしW。がアナログ量として供給
されている。個々の乗算器11ないし1゜は各々対応し
た順入力アナログ信号x1ないしXnとシナップス結合
荷重w1ないしW。との乗算処理を行なう。
このN個の乗算結果はアナログ信号として加算器5に印
加され加算処理が行なわれる。引き続き、加算結果はシ
グモイド型の非線形関数器6によって非線形処理され所
定の顕出力アナログ信号y(ylないしyl、l)が得
られる。かかる動作を数式で表わすと以下の通りである
。
加され加算処理が行なわれる。引き続き、加算結果はシ
グモイド型の非線形関数器6によって非線形処理され所
定の顕出力アナログ信号y(ylないしyl、l)が得
られる。かかる動作を数式で表わすと以下の通りである
。
y“yll y21°゛l yl
!f(X1@w1+x2・W2+・・−+xn wn)
次に内部処理手段の動作を説明する。非線形関数器7は
共通の顕出力アナログ信号yを所定の関数特性gに従っ
て非線形処理する。又、加算器8はM個の逆入力誤差信
号の加算を行なう。この非線形処理結果と加算結果は乗
算器9によって互いに掛は合わせられ以下に示す形式で
表わされる内部処理信号が生成される。
次に内部処理手段の動作を説明する。非線形関数器7は
共通の顕出力アナログ信号yを所定の関数特性gに従っ
て非線形処理する。又、加算器8はM個の逆入力誤差信
号の加算を行なう。この非線形処理結果と加算結果は乗
算器9によって互いに掛は合わせられ以下に示す形式で
表わされる内部処理信号が生成される。
g(y) (Δy 十Δy2+・・・+ΔyI11
)この内部処理信号はニューロン回路内においてシナッ
プス結合荷重を修正したり誤差逆伝播を実行する為に用
いられる。
)この内部処理信号はニューロン回路内においてシナッ
プス結合荷重を修正したり誤差逆伝播を実行する為に用
いられる。
続いて更新手段の動作を説明する。アナログ乗算器9の
出力である内部修正信号と個々の順入力アナログ信号x
1ないしX。は対応するアナログ乗算器2□ないし2゜
に入力され、互いに掛は合わされて個々のシナップス結
合荷重修正量ΔW1ないしΔW を算出する。従って、
これらシナッブス結合荷重修正量は以下の式により表わ
される。
出力である内部修正信号と個々の順入力アナログ信号x
1ないしX。は対応するアナログ乗算器2□ないし2゜
に入力され、互いに掛は合わされて個々のシナップス結
合荷重修正量ΔW1ないしΔW を算出する。従って、
これらシナッブス結合荷重修正量は以下の式により表わ
される。
6w1=x1・g (y)・(Δy1+Δy2+・・・
+Δym)6w2=x2・g(y)・(Δy1+ΔV2
+”’+ΔylI)6w −x −gCy)
・ (Δy 十Δy2+・・・+Δy、)nn
1 個々のシナップス結合荷重修正量Δw1ないしΔW は
対応する積分器41ないし4゜の各々に入力される。各
積分器4□な(ル4nは入力されたシナップス結合荷重
修正量の積分処理を行ない、積分器自身が保持していた
シナップス結合荷重量w1ないしwnの修正あるいは更
新を行なう。この結果、後段側のニューロン回路群から
逆入力された誤差信号に基づいてシナップス結合荷重量
の修正が行なわれる。この動作を繰り返し行なう事によ
りシナップス結合荷重量は完全な出力アナログ信号が得
られる様に収束してくる。
+Δym)6w2=x2・g(y)・(Δy1+ΔV2
+”’+ΔylI)6w −x −gCy)
・ (Δy 十Δy2+・・・+Δy、)nn
1 個々のシナップス結合荷重修正量Δw1ないしΔW は
対応する積分器41ないし4゜の各々に入力される。各
積分器4□な(ル4nは入力されたシナップス結合荷重
修正量の積分処理を行ない、積分器自身が保持していた
シナップス結合荷重量w1ないしwnの修正あるいは更
新を行なう。この結果、後段側のニューロン回路群から
逆入力された誤差信号に基づいてシナップス結合荷重量
の修正が行なわれる。この動作を繰り返し行なう事によ
りシナップス結合荷重量は完全な出力アナログ信号が得
られる様に収束してくる。
最後に、逆処理手段の動作を説明する。アナログ乗算器
9から出力された内部修正信号と更新された個々のシナ
ップス結合荷重w1ないしwnは対応するアナログ乗算
器31ないし3゜に入力され、互いに掛は合わされて個
々の逆出力誤差信号Δx1ないしΔX、が生成される。
9から出力された内部修正信号と更新された個々のシナ
ップス結合荷重w1ないしwnは対応するアナログ乗算
器31ないし3゜に入力され、互いに掛は合わされて個
々の逆出力誤差信号Δx1ないしΔX、が生成される。
従って、これら逆出力誤差信号は以下の式により表わさ
れる。
れる。
Δx −w −g(y) ・ (Δy +Δy2
+・・・十Δy、)Δx =w −g(y) ・
(Δy 十Δy2+・・・十ΔylIl)Δx −
w −g(y) ・ (Δy +Δy2+・・・十
Δy、)nn 1 この様にして、誤差信号は後段側から前段側に逆伝播さ
れ各段におけるニューロン回路の自己学習が実行される
。
+・・・十Δy、)Δx =w −g(y) ・
(Δy 十Δy2+・・・十ΔylIl)Δx −
w −g(y) ・ (Δy +Δy2+・・・十
Δy、)nn 1 この様にして、誤差信号は後段側から前段側に逆伝播さ
れ各段におけるニューロン回路の自己学習が実行される
。
以上に示した各式はルーメルハート等の誤差逆伝播学習
剤に基づくものである。従って、第2図に示すニューロ
ン回路を複数結合する事により自己学習可能なニューラ
ルネットワークを構成する事かできる。
剤に基づくものである。従って、第2図に示すニューロ
ン回路を複数結合する事により自己学習可能なニューラ
ルネットワークを構成する事かできる。
次に第3図ないし第6図を参照してアナログ方式ニュー
ロン回路に用いられるアナログ構成部品の具体例を説明
する。先ず、第3図はアナログ加算回路5,8の具体的
回路構成例を示す。図示する様に、加算回路5,8はア
ナログ差動増幅器からなり正入力端子に印加された複数
の入力信号X、はアナログ的に加算され出力端子に現わ
れる。
ロン回路に用いられるアナログ構成部品の具体例を説明
する。先ず、第3図はアナログ加算回路5,8の具体的
回路構成例を示す。図示する様に、加算回路5,8はア
ナログ差動増幅器からなり正入力端子に印加された複数
の入力信号X、はアナログ的に加算され出力端子に現わ
れる。
極めて単純な構成を有しておリニューロン回路のハード
ウェア化に最適である。
ウェア化に最適である。
第4図は非線形関数回路6の具体的回路構成例を示し、
シグモイド関数特性を有する。この回路は5個のトラン
ジスタと6個の抵抗素子からなり、入力端子に入力信号
Xを印加すると出力端子に出力信号 f (x) − 1+exp(−x) が現われる。このシグモイド関数は、生体のニューロン
細胞の信号応答特性をシミュレートしたものである。一
般に、シグモイド関数が用いられるがこれに限られるも
のではない。
シグモイド関数特性を有する。この回路は5個のトラン
ジスタと6個の抵抗素子からなり、入力端子に入力信号
Xを印加すると出力端子に出力信号 f (x) − 1+exp(−x) が現われる。このシグモイド関数は、生体のニューロン
細胞の信号応答特性をシミュレートしたものである。一
般に、シグモイド関数が用いられるがこれに限られるも
のではない。
第5図は非線形関数回路7の具体的回路構成図を示す。
この回路は2個の差動増幅器と1個のアナログ乗算器と
3個の抵抗器とから構成されている。入力信号Xをアナ
ログ的に処理して出力信号g (x) =x (1−x
) を送出する。この非線形関数回路は、シグモイド関数を
微分した形の特性を持ち、逆入力誤差信号の加算結果に
対して重み付けを行なう為の信号を発生する。この重み
付けは、より適正な内部修正信号を得る為のものである
。
3個の抵抗器とから構成されている。入力信号Xをアナ
ログ的に処理して出力信号g (x) =x (1−x
) を送出する。この非線形関数回路は、シグモイド関数を
微分した形の特性を持ち、逆入力誤差信号の加算結果に
対して重み付けを行なう為の信号を発生する。この重み
付けは、より適正な内部修正信号を得る為のものである
。
第6図は積分器4、ないし4nの具体的回路構成例を示
す。この回路は容量成分と抵抗成分の直列接続からなり
、入力信号Xのアナログ的な時間積分を行なう。ニュー
ロン回路においては、積分器の出力端子にはシナップス
結合荷重w1ないしW が現われている。入力端子にシ
ナップス結合荷重修正量Δw1ないしΔwoが印加され
るとその積分処理を行ない出力端子に保持されているシ
ナップス結合荷重の修正あるいは更新が行なわれる。
す。この回路は容量成分と抵抗成分の直列接続からなり
、入力信号Xのアナログ的な時間積分を行なう。ニュー
ロン回路においては、積分器の出力端子にはシナップス
結合荷重w1ないしW が現われている。入力端子にシ
ナップス結合荷重修正量Δw1ないしΔwoが印加され
るとその積分処理を行ない出力端子に保持されているシ
ナップス結合荷重の修正あるいは更新が行なわれる。
以上に説明した様に、本発明にかかるニューロン回路に
用いられる各構成部品は比較的単純な構造を有するアナ
ログ回路からなりニューロン回路全体をハードウェア化
するのに極めて適している。なお、アナログ乗算器11
ないし1n12□ないし2゜、31ないし3゜および9
については、実際に市販されているものか多数あるので
これらを使用すれば良い。アナログ乗算器ICとしては
、例えばRC4200,I CL8013. MC14
95L等かある。
用いられる各構成部品は比較的単純な構造を有するアナ
ログ回路からなりニューロン回路全体をハードウェア化
するのに極めて適している。なお、アナログ乗算器11
ないし1n12□ないし2゜、31ないし3゜および9
については、実際に市販されているものか多数あるので
これらを使用すれば良い。アナログ乗算器ICとしては
、例えばRC4200,I CL8013. MC14
95L等かある。
最後に第7図は本発明にかかるアナログ方式ニューロン
回路を多数個使ったニューラルネットワークの一例を示
す。図において、円ブロックで示された構成要素が個々
のアナログ方式ニューロン回路を表わしている。このニ
ューラルネットワークは3段からなる階層構造を有して
おり、入力側から出力側に向かうアナログ信号の順方向
並列分散処理を行なう。同時に、最終順出力アナログ信
号OないしO8と所定の教師信号T1ない■ しT、との差に応じた誤差信号の、出力側から入力端に
向かう逆方向伝播処理を行ない各ニューロン回路のシナ
ップス結合荷重の内部修正を実行して自己学習を行なう
ものである。図において、第1段を構成するニューラル
回路群はN1で表わされており、第2段を構成するニュ
ーラル回路群はM、で表わされており、第3段を構成す
るニューラル回路群はLkで表わされている。入力側か
ら出力側に向かう結線は順方向経路を表わし、出力側か
ら入力側に向かう結線は逆方向経路を表わしている。図
において、前段側ニューロン回路から供給された順出力
アナログ信号は後段側のニューロン回路に順入力アナロ
グ信号として受け入れられる。又後段側ニューロン回路
から送出される逆入力誤差信号は前段側ニューロン回路
により逆入力誤差信号として受け入れられる。各ニュー
ロン回路には前段から送られる複数の順入カアナログ信
号に対応して複数のシナップス結合荷重が保持されてい
る。例えば、第3段の第1番目のニューロン回路L1に
は前段の第1番目のニューロン回路M、から送られる順
入力アナログ信号に対応してシナップス結合荷重v1□
を保持しており、第2段の第1番目のニューロン回路M
。
回路を多数個使ったニューラルネットワークの一例を示
す。図において、円ブロックで示された構成要素が個々
のアナログ方式ニューロン回路を表わしている。このニ
ューラルネットワークは3段からなる階層構造を有して
おり、入力側から出力側に向かうアナログ信号の順方向
並列分散処理を行なう。同時に、最終順出力アナログ信
号OないしO8と所定の教師信号T1ない■ しT、との差に応じた誤差信号の、出力側から入力端に
向かう逆方向伝播処理を行ない各ニューロン回路のシナ
ップス結合荷重の内部修正を実行して自己学習を行なう
ものである。図において、第1段を構成するニューラル
回路群はN1で表わされており、第2段を構成するニュ
ーラル回路群はM、で表わされており、第3段を構成す
るニューラル回路群はLkで表わされている。入力側か
ら出力側に向かう結線は順方向経路を表わし、出力側か
ら入力側に向かう結線は逆方向経路を表わしている。図
において、前段側ニューロン回路から供給された順出力
アナログ信号は後段側のニューロン回路に順入力アナロ
グ信号として受け入れられる。又後段側ニューロン回路
から送出される逆入力誤差信号は前段側ニューロン回路
により逆入力誤差信号として受け入れられる。各ニュー
ロン回路には前段から送られる複数の順入カアナログ信
号に対応して複数のシナップス結合荷重が保持されてい
る。例えば、第3段の第1番目のニューロン回路L1に
は前段の第1番目のニューロン回路M、から送られる順
入力アナログ信号に対応してシナップス結合荷重v1□
を保持しており、第2段の第1番目のニューロン回路M
。
から送られる順入力アナログ信号に対応してシナップス
結合荷重■1jを保持している。同様にして、第3段の
に番目のニューロン回路Lkはシナップス結合荷重vk
1やvkjを保持しており、第2段の第1番目のニュー
ロン回路M1は例えばシナップス結合荷重W11やWl
lを有しており、同じく第2段の第1番目のニューロン
回路Mjはシナップス結合荷重Wj1やWjlを備えて
いる。さらに、誤差逆伝播を行なう場合の初期誤差値と
して、第3段のニューロン回路Lkにはその最終順出力
アナログ信号Oと対応する教師信号T、との差か与えら
れる。
結合荷重■1jを保持している。同様にして、第3段の
に番目のニューロン回路Lkはシナップス結合荷重vk
1やvkjを保持しており、第2段の第1番目のニュー
ロン回路M1は例えばシナップス結合荷重W11やWl
lを有しており、同じく第2段の第1番目のニューロン
回路Mjはシナップス結合荷重Wj1やWjlを備えて
いる。さらに、誤差逆伝播を行なう場合の初期誤差値と
して、第3段のニューロン回路Lkにはその最終順出力
アナログ信号Oと対応する教師信号T、との差か与えら
れる。
第7図に示すニューラルネットワークを誤差逆伝播学習
則により自己学習させる場合、シナ・ソプス結合荷重修
正量Δ■、jおよびΔWjiは次式で示される。
則により自己学習させる場合、シナ・ソプス結合荷重修
正量Δ■、jおよびΔWjiは次式で示される。
ΔM −α・(T −0)・g(Ok)・Mjkj
k k ・・・・・・・・・・・・・・・ ■ (αは比例定数) ΔW1.=β・g (M、 ’) ・N。
k k ・・・・・・・・・・・・・・・ ■ (αは比例定数) ΔW1.=β・g (M、 ’) ・N。
JI J
Σ(T −0)・g(0)・vkj
kkk k
・・・・・・・・・・・・・・・ ■
(βは比例定数)
但し、第0式においてM はシナツブス結合荷重V、j
に対応する順入力アナログ信号の大きさを示しており、
第2式に示すN、はシナップス結合荷重W3.に対応す
る順入力アナログ信号の大きさを表わしている。
に対応する順入力アナログ信号の大きさを示しており、
第2式に示すN、はシナップス結合荷重W3.に対応す
る順入力アナログ信号の大きさを表わしている。
次に、第3段の第に番目のニューロン回路Lkに対して
第2図に示す本発明にかかるアナログ方式ニューロン回
路を用いた場合に、確かに第0式を満たす事を示す。即
ち、逆入力誤差信号Δyとして初期誤差信号(T、−0
k)を用いると、誤差修正量Δ■、jは以下に示す形と
して与えられる。
第2図に示す本発明にかかるアナログ方式ニューロン回
路を用いた場合に、確かに第0式を満たす事を示す。即
ち、逆入力誤差信号Δyとして初期誤差信号(T、−0
k)を用いると、誤差修正量Δ■、jは以下に示す形と
して与えられる。
ΔM −M、・g (0) (Tk−Ok)kj
J k これは第0式と一致している。
J k これは第0式と一致している。
又このニューロン回路Lkの逆入力誤差信号ΔXのうち
前段のニューロン回路M、に送出されるものをΔM と
して表わすと、このΔMkjは以j 下の様に与えられる。
前段のニューロン回路M、に送出されるものをΔM と
して表わすと、このΔMkjは以j 下の様に与えられる。
ΔM =V −g(0) (Tk−Ok)jk
jk さて、この様にして得られた逆入力誤差信号八Mkjを
、前段に接続されているニューロン回路M、の逆入力誤
差信号Δyとして与えると、このニューロン回路M、の
シナップス結合荷重の修正量ΔW1.は以下の通りに与
えられる。
jk さて、この様にして得られた逆入力誤差信号八Mkjを
、前段に接続されているニューロン回路M、の逆入力誤
差信号Δyとして与えると、このニューロン回路M、の
シナップス結合荷重の修正量ΔW1.は以下の通りに与
えられる。
g (0) (T、−0k)
これは第2式と一致している。さらに、このニュ−ロン
回路M、の逆出力誤差信号ΔXとしては以下に示す式で
表わされる量が得られる。
回路M、の逆出力誤差信号ΔXとしては以下に示す式で
表わされる量が得られる。
ΔN 、、−W、、・g(M、)Σvkj・コ1
コI J kg(0)・(Tk
−Ok) 従って、この逆出力誤差信号ΔNj1をさらに前段側の
ニューロン回路N、に送出する事により逆誤差伝播学習
側通りの自己学習を各階層順に行なう事ができる。
コI J kg(0)・(Tk
−Ok) 従って、この逆出力誤差信号ΔNj1をさらに前段側の
ニューロン回路N、に送出する事により逆誤差伝播学習
側通りの自己学習を各階層順に行なう事ができる。
以上説明した様に、本発明にかかる自己学習型アナログ
方式ニューロン回路を用いる事により、ニューラルネッ
トワーク全体をハードウェアで構成する事が可能となり
、誤差逆伝播学習における処理速度を従来のソフトウェ
アによる逐次計算方式と比べて極めて速くする事ができ
る様になった。
方式ニューロン回路を用いる事により、ニューラルネッ
トワーク全体をハードウェアで構成する事が可能となり
、誤差逆伝播学習における処理速度を従来のソフトウェ
アによる逐次計算方式と比べて極めて速くする事ができ
る様になった。
従来の逐次計算方式ではニューロン回路の数が増える程
処理時間がかかっていたが本発明によればニューロン回
路の数と無関係に高速処理を実行する事ができる。又、
従来のパルス密度方式では一定時間内のパルス数単位毎
に演算を行なう為処理時間の遅延が避けられないのに対
して本発明においては完全なアナログ量を扱うので瞬時
に信号処理を行なう事ができるという効果がある。さら
に、従来のパルス密度方式では近似的な演算処理を行な
っているので信号処理誤差か大きく学習によるシナップ
ス結合荷重の収束性が悪いのに対して、本発明において
は完全なアナログ処理を行なっているので極めて正確な
学習が可能であるとともに結合荷重の迅速な収束が可能
となるという効果もある。
処理時間がかかっていたが本発明によればニューロン回
路の数と無関係に高速処理を実行する事ができる。又、
従来のパルス密度方式では一定時間内のパルス数単位毎
に演算を行なう為処理時間の遅延が避けられないのに対
して本発明においては完全なアナログ量を扱うので瞬時
に信号処理を行なう事ができるという効果がある。さら
に、従来のパルス密度方式では近似的な演算処理を行な
っているので信号処理誤差か大きく学習によるシナップ
ス結合荷重の収束性が悪いのに対して、本発明において
は完全なアナログ処理を行なっているので極めて正確な
学習が可能であるとともに結合荷重の迅速な収束が可能
となるという効果もある。
第1図は自己学習型アナログ方式ニューロン回路の基本
的構成を示す模式的ブロック図、第2図はアナログ方式
ニューロン回路の具体的回路構成を示すブロック図、第
3図は構成部品であるアナログ加算器の具体的回路構成
例を示すブロック図、第4図は非線形関数器の具体的回
路構成例を示すブロック図、第5図は他の非線形関数器
の回路構成を示すブロック図、第6図は積分器の具体的
回路構成を示すブロック図、第7図は第2図に示すニュ
ーロン回路を用いて構成されたニューラルネットワーク
を示す模式図、及び第8図は従来のニューロン回路の構
成を示す模式図である。 5・・・加算器 6・・・非線形関数器7・
・・非線形関数器 8・・・加算器9・・・乗算器 1□ないし1゜・・・乗算器 2□ないし2゜・・・乗算器 3□ないし3゜・・・乗算器 4□ないし4n・・・積分器 A・・・順処理手段 B・・・内部処理手段C・
・更新手段 D・・・逆処理手段塁、β 第3図 41 、v4n
的構成を示す模式的ブロック図、第2図はアナログ方式
ニューロン回路の具体的回路構成を示すブロック図、第
3図は構成部品であるアナログ加算器の具体的回路構成
例を示すブロック図、第4図は非線形関数器の具体的回
路構成例を示すブロック図、第5図は他の非線形関数器
の回路構成を示すブロック図、第6図は積分器の具体的
回路構成を示すブロック図、第7図は第2図に示すニュ
ーロン回路を用いて構成されたニューラルネットワーク
を示す模式図、及び第8図は従来のニューロン回路の構
成を示す模式図である。 5・・・加算器 6・・・非線形関数器7・
・・非線形関数器 8・・・加算器9・・・乗算器 1□ないし1゜・・・乗算器 2□ないし2゜・・・乗算器 3□ないし3゜・・・乗算器 4□ないし4n・・・積分器 A・・・順処理手段 B・・・内部処理手段C・
・更新手段 D・・・逆処理手段塁、β 第3図 41 、v4n
Claims (1)
- 【特許請求の範囲】 1、複数の順入力アナログ信号を受け複数の対応するシ
ナップス結合荷重との間の積和処理を行ない順出力アナ
ログ信号を生成する為のアナログ回路から構成される順
処理手段と、 複数の逆入力誤差信号を受け該順出力アナログ信号との
間で処理を行ない内部修正信号を生成する為のアナログ
回路から構成される内部処理手段と、 該内部修正信号と個々の順入力アナログ信号との処理を
行ない個々のシナップス結合荷重修正量を演算するとと
もに該修正量に従って対応するシナップス結合荷重の修
正更新を行なう為のアナログ回路から構成される更新手
段と、 該内部修正信号と個々のシナップス結合荷重との処理を
行ない複数の逆出力誤差信号を生成する為のアナログ回
路から構成される逆処理手段とからなるニューロン回路
。 2、該内部処理手段は、複数の逆入力誤差信号を加算す
る為のアナログ加算回路と、順出力アナログ信号を非線
形処理する為のアナログ非線形関数器と、加算された逆
出力誤差信号と非線形処理された順出力アナログ信号を
乗算し内部修正信号を出力する為のアナログ乗算器とか
らなる請求項1に記載のニューロン回路。 3、該更新手段は、内部修正信号と個々の順入力アナロ
グ信号を乗算し個々のシナップス結合荷重修正量を演算
する為のアナログ乗算器群と、個々のシナップス結合荷
重量を保持するとともに対応するシナップス結合荷重修
正量の入力を受け積分処理を行なう事により保持するシ
ナップス結合荷重量の修正更新を行なう為のアナログ積
分器群とからなる請求項1に記載のニューロン回路。 4、該逆処理手段は、該内部修正信号と更新された個々
のシナップス結合荷重との乗算処理を行ない複数の逆出
力誤差信号を生成する為のアナログ乗算器群を含む請求
項1に記載のニューロン回路。 5、請求項1に記載のニューロン回路を複数接続した階
層構造からなり、アナログ信号の順方向並列分散処理を
行なうとともに、最終順出力アナログ信号と所定の教師
信号との差に応じた誤差信号の逆方向伝播処理を行ない
各ニューロン回路のシナップス結合荷重の内部修正を実
行して自己学習を可能とするニューラルネットワーク。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2233875A JPH04112355A (ja) | 1990-09-03 | 1990-09-03 | 自己学習型アナログ方式ニューロン回路 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2233875A JPH04112355A (ja) | 1990-09-03 | 1990-09-03 | 自己学習型アナログ方式ニューロン回路 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH04112355A true JPH04112355A (ja) | 1992-04-14 |
Family
ID=16961937
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2233875A Pending JPH04112355A (ja) | 1990-09-03 | 1990-09-03 | 自己学習型アナログ方式ニューロン回路 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH04112355A (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017102904A (ja) * | 2015-10-23 | 2017-06-08 | 株式会社半導体エネルギー研究所 | 半導体装置および電子機器 |
| CN113408713A (zh) * | 2021-08-18 | 2021-09-17 | 成都时识科技有限公司 | 消除数据副本的方法、神经网络处理器及电子产品 |
| US11173548B2 (en) | 2017-04-04 | 2021-11-16 | Nlight, Inc. | Optical fiducial generation for galvanometric scanner calibration |
| US11179807B2 (en) | 2015-11-23 | 2021-11-23 | Nlight, Inc. | Fine-scale temporal control for laser material processing |
-
1990
- 1990-09-03 JP JP2233875A patent/JPH04112355A/ja active Pending
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017102904A (ja) * | 2015-10-23 | 2017-06-08 | 株式会社半導体エネルギー研究所 | 半導体装置および電子機器 |
| JP2021108144A (ja) * | 2015-10-23 | 2021-07-29 | 株式会社半導体エネルギー研究所 | 半導体装置及び電子機器 |
| US11179807B2 (en) | 2015-11-23 | 2021-11-23 | Nlight, Inc. | Fine-scale temporal control for laser material processing |
| US11173548B2 (en) | 2017-04-04 | 2021-11-16 | Nlight, Inc. | Optical fiducial generation for galvanometric scanner calibration |
| CN113408713A (zh) * | 2021-08-18 | 2021-09-17 | 成都时识科技有限公司 | 消除数据副本的方法、神经网络处理器及电子产品 |
| CN113408713B (zh) * | 2021-08-18 | 2021-11-16 | 成都时识科技有限公司 | 消除数据副本的方法、神经网络处理器及电子产品 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Hagan et al. | Training feedforward networks with the Marquardt algorithm | |
| US5056037A (en) | Analog hardware for learning neural networks | |
| US5630023A (en) | Signal processor | |
| US5283855A (en) | Neural network and method for training the neural network | |
| Wang et al. | Complex dynamical behavior of neural networks in circuit implementation | |
| Ranganath et al. | Design of MAC unit in artificial neural network architecture using Verilog HDL | |
| JP2760170B2 (ja) | 学習機械 | |
| Ochs et al. | Towards wave digital modeling of neural pathways using two-port coupling networks | |
| JPH04112355A (ja) | 自己学習型アナログ方式ニューロン回路 | |
| US5347613A (en) | MOS multi-layer neural network including a plurality of hidden layers interposed between synapse groups for performing pattern recognition | |
| Hikawa | Implementation of simplified multilayer neural networks with on-chip learning | |
| Beerhold et al. | Pulse-processing neural net hardware with selectable topology and adaptive weights and delays | |
| Janer et al. | Fully parallel summation in a new stochastic neural network architecture | |
| US5689621A (en) | Modular feedforward neural network architecture with learning | |
| JPH07210534A (ja) | ニューラルネットワーク | |
| JP3508783B2 (ja) | パルス密度型信号処理回路網における結合係数更新方法並びに結合係数更新装置 | |
| JPH04216160A (ja) | ニュ−ラルネットワ−ク回路 | |
| Gégout et al. | Generic back-propagation in arbitrary feedforward neural networks | |
| JPH0264788A (ja) | ニューロンアーキテクチャ | |
| JPH07113942B2 (ja) | ニューロチップによる結合器 | |
| JPH04291662A (ja) | 階層ネットワーク構成演算素子 | |
| Boughammoura | Backpropagation and F-adjoint | |
| JPH03283193A (ja) | ハミング距離が一番近い基礎記憶を連想する連想メモリ | |
| JP2517662B2 (ja) | 連鎖制御装置 | |
| Arun et al. | Analog VLSI design of neural network architecture for implementation of forward only computation |