JPH04336370A - 人工的神経回路網処理装置 - Google Patents

人工的神経回路網処理装置

Info

Publication number
JPH04336370A
JPH04336370A JP10702091A JP10702091A JPH04336370A JP H04336370 A JPH04336370 A JP H04336370A JP 10702091 A JP10702091 A JP 10702091A JP 10702091 A JP10702091 A JP 10702091A JP H04336370 A JPH04336370 A JP H04336370A
Authority
JP
Japan
Prior art keywords
artificial
value
output value
neural network
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10702091A
Other languages
English (en)
Inventor
Setsu Suzuoka
節 鈴岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP10702091A priority Critical patent/JPH04336370A/ja
Publication of JPH04336370A publication Critical patent/JPH04336370A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
[発明の目的]
【0001】
【産業上の利用分野】本発明は、人工的神経回路網を用
いた最適化や連想を効率的に行う人工的神経回路網処理
装置に関する。
【0002】
【従来の技術】近年、複数の人工的ニューロンを用いて
人工的神経回路網を構築し、種々の処理を実行すること
が試みられている。例えば、一般的な神経回路網モデル
であるホップフィールド(Hopfield)モデルで
は、複数の人工的ニューロンが重み付きリンクを介して
結合されている。そして、j番目の人工的ニューロンの
出力値Oj を次のように計算することで、連想を行う
【0003】
【数1】
【0004】すなわち、人工的ニューロンjにリンクを
介して接続された人工的ニューロンiの出力値Oi に
それぞれのリンクの重みWjiをかけたものを全てのi
についてたし合わせ、さらに人工的ニューロンj固有の
外部入力Ij を加えたものを、人工的ニューロンjへ
の入力値μj とする。この入力値μj に、上限下限
を持つ単調増加関数fを施して、人工的ニューロンjの
出力値Oj を得る。
【0005】以上を全てのjについて行って1サイクル
の神経回路網計算とする。さらに、以上の手続きを、全
ての人工的ニューロンの出力値が変化しなくなるまで反
復する。
【0006】ここで問題となるのは、全ての出力値が変
化しなくなるまでの計算量が多いという点である。計算
量を減らす工夫として、本発明者は既に特願平1−19
4061号にて差分計算を用いる方法を提案した。これ
によれば、人工的ニューロンの出力値がOj old 
からOj new へ変化した場合に、人工的ニューロ
ンjとリンクで接続されている全人工的ニューロンiに
ついて、入力値μi および出力値Oi を次のように
更新する。 μi ←μi +2Wij(Oj new −Oj o
ld )Oi new ←f(μi ) そして、全てのμi ,Oi new を更新し終えた
後に、Oj old ←Oj new とする。(Oj new −Oj old )の絶対値
が比較的大きいjを選び、以上を繰り返す。そして、全
てのjについて |Oj new −Oj old |≦ε(εはある正
定数)になったならば、処理を終了する。
【0007】この方法であれば、変化しない部分を再計
算することはないので効果的な処理を行うことができる
が、この方法が有効であるのは、外部入力Ij が一定
値の場合(外乱がない場合)に限られる。
【0008】ところで、このような人工的神経回路網を
応用した処理の一つとして、本発明者が特願平1−15
7159号にて提案した、神経回路網の連想機能を用い
た仮名漢字変換技術がある。ここでは、人工的ニューロ
ンはそれぞれ語句を表し、人工的ニューロンの出力値は
現在入力中の文章におけるその語句の現れ易さを表し、
人工的ニューロン間のリンクの重みは対応する語句同士
の関係の強さ(同じ文脈で共に現れる度合い)を表して
いる。入力文章中に既に現れた語句に対応する人工的ニ
ューロンのIj を大きく(ユーザが選択した語句に対
応する人工的ニューロンのIj を大きく)して、上述
した連想を行うことにより、入力文章の分野に関係が深
くこれから入力されそうな語句に対応する人工的ニュー
ロンの出力値は大きく、そうでない語句に対応する人工
的ニューロンの出力値は小さくなる。この神経回路網を
用いて仮名漢字変換を行う際には、入力された仮名に対
する変換候補となる語句に対応する人工的ニューロンの
出力値を考慮して、変換候補の優先順位を決定し、この
順位に従って変換候補の語句を出力する。
【0009】ここで、語句の数は全部で数万個というオ
ーダであっても、現在入力中の文章に関係のある語句は
高々数千個である。つまり、わずか数%の人工的ニュー
ロンのみが大きな出力値を持ち、残りのほとんどの人工
的ニューロンが小さな出力値を持つという状態になって
いる。なおかつ、出力値の小さい人工的ニューロンに対
応する語句は、現在入力中の文章に出現する可能性が低
いから、変換候補としての優先順位が低い即ち人工的ニ
ューロンの出力値が小さいということにのみ意味があり
、出力値の具体的な値自体はあまり意味を持たない。 なぜなら、現在入力中の文章に対して注目する語句がど
の程度関係が深いかを表す値(大きな出力値の値)が重
要なのであって、現在入力中の文章に関係のない語句の
うちいずれがより関係ないかということ(小さな出力値
の値)は全く重要でないからである。
【0010】つまり、上記のような神経回路網の連想機
能を用いた仮名漢字変換においては、文章が入力され続
けている限り、ユーザの選択によって外部入力Ij は
変化し続けるため、差分計算法の奏する効果が小さいと
いう問題があった。そのうえ、神経回路網計算の大部分
は、多数を占める出力値の小さい人工的ニューロンのた
めのものであって、しかも小さい出力値の値自体にはあ
まり意味がないのであるから、効果の少ない計算のため
に多くの時間を浪費しているという問題があった。
【0011】
【発明が解決しようとする課題】このように従来の人工
的神経回路網処理装置にあっては、人工的ニューロンの
出力値の分布に偏りがあり、かつ、多くの人工的ニュー
ロンの出力値が分布している方の出力値の値自体があま
り意味を持たない場合には、非効率的な処理が多いため
に処理が遅くなるという問題があった。
【0012】本発明は以上の点を鑑みてなされたもので
、その目的とするところは、前述したような場合に高速
に処理を行うことのできる人工的神経回路網処理装置を
提供することにある。 [発明の構成]
【0013】
【課題を解決するための手段】本発明に係る人工的神経
回路網処理装置は、入力値と出力値とを持つ人工的ニュ
ーロンを複数個接続して構成される人工的神経回路網と
、この人工的神経回路網から、出力値が第1の所定値以
上であるか、あるいは、入力値が第2の所定値以上であ
る人工的ニューロンを選択する選択手段と、この選択手
段により選択された人工的ニューロンに限って、以下に
記す処理を行う手段を具備したことを特徴とするもので
ある。
【0014】その処理とは、前記の人工的ニューロンの
入力値に関数を作用させて新たな出力値を求め、この結
果出力値の変化した人工的ニューロンに接続された人工
的ニューロンの入力値を前記の新たな出力値に基づいて
更新するものである。この処理の後、上述した条件を満
たす人工的ニューロンについて再度上記の処理を行うこ
とを繰り返す。
【0015】前記第1の所定値は、出力値が前記第1の
所定値以上の人工的ニューロンの数が、出力値が前記第
1の所定値より小さい人工的ニューロンの数よりも少な
いように定めたものであり、前記第2の所定値は、前記
第1の所定値に前記第1の更新手段における関数の逆関
数を作用させて求められるものである。また、以上に述
べた構成要件のうち大小関係のみを全て逆転させたもの
も、本発明に含まれる。
【0016】
【作用】本発明によれば、人工的ニューロンを選択して
処理を行うため、全ての人工的ニューロンについて処理
を行う装置に比べて、計算量を減らすことができる。特
に、本発明は、出力値分布に偏りがある人工的神経回路
網を処理する場合に威力を発揮する。
【0017】出力値分布に偏りがある場合のうち、出力
値が大きい人工的ニューロンの数が、出力値が小さい人
工的ニューロンの数より少ない場合を例にとり説明する
。この場合、人工的ニューロンの出力値が比較的大きい
場合にはその値の意味は大きいが、出力値が比較的小さ
い場合には値が小さいということだけに意味がありその
具体的値には意味がない。
【0018】本発明によれば、出力値が第1の所定値よ
り小さい人工的ニューロンの新たな出力値の計算、及び
、この計算により変化した出力値による他の人工的ニュ
ーロンの入力値の変化の計算を省略する。この省略は、
本処理装置により処理された人工的神経回路網における
出力値を参照するうえで何ら影響がない。しかも、出力
値が第1の所定値より小さい人工的ニューロンが全体に
占める割合は大きいので、計算量を大きく削減すること
ができる。
【0019】このことから、第1の所定値について次の
ように言うこともできる。上記のように、出力値が大き
い人工的ニューロンの数が、出力値が小さい人工的ニュ
ーロンの数より少なく、出力値が第1の所定値より小さ
い人工的ニューロンについての計算を行わないとするな
らば、第1の所定値を大きく設定すればするほど計算量
は削減できるが、第1の所定値を過度に大きくすると、
計算を省略することにより出力値を参照するうえで無視
できない誤差が現れてくる。このトレードオフを考慮し
て第1の所定値を設定すればよい。
【0020】また、本発明によれば、外乱(人工的ニュ
ーロンへの外部入力)により人工的神経回路網の状態が
安定しないとき、計算量を減らして処理を高速化し、外
界の変化にすばやく対応することができる。
【0021】
【実施例】以下、図面を参照しながら本発明の一実施例
に係る人工的神経回路網処理装置について説明する。図
1は人工的神経回路網処理装置の構成例を示す図、図2
はこの装置の処理の流れを表すフロー図である。
【0022】図1において、神経回路網部は、人工的ニ
ューロン(図3にその概念図を示す)をリンクにより無
階層に相互結合して構成されたもので、その連想(出力
値の変更)は、数1(あるいは数2)に従って行われる
。図1の神経回路網部1内の○は人工的ニューロンを、
−はリンクを表す。
【0023】図1の人工的神経回路網処理装置は、外部
入力発生部2より、神経回路網部1の人工的ニューロン
に外部入力を与え、人工的神経回路網の状態(各人工的
ニューロンの出力値)を変化させて、出力値参照部3に
おいて出力値を各人工的ニューロンの出力値を参照して
、この参照結果を様々な装置に提供するものである。 提供先の装置としては、後述する仮名漢字変換装置や認
識装置等が挙げられる。図2において、A1〜A4は人
工的ニューロンの出力値(Oj )を初期化し、A5〜
A8は人工的ニューロンへの入力値(μj )を初期化
して、A9〜A21は人工的神経回路網の処理を行うこ
とを示している。
【0024】ニューロン取出部4では、処理を行う人工
的ニューロンjの出力値を神経回路網部1より取り出す
。jは人工的ニューロンの番号を示す変数であり、j=
1(A9)から、jを1つずつ増やしながら(A20)
、全人工的ニューロンについて(A21)以下の処理を
施す。A12〜A19の処理をするか否かを、人工的ニ
ューロンの現在の出力値f(μj )、もしくは、現在
の出力値に変更される直前の(以降「前回の」と呼ぶ)
出力値Oj が、しきい値OT 以上であるか否かで判
定する。ところで、現在の出力値f(μj )とOT 
とを直接比較するためには、f(μj )を計算する必
要があるが、関数fは単調増加関数であるため、以下の
ことが成り立つ。 OT =f(μT )のとき μj <μT   ならば  f(μj )<OT  
            μj ≧μT   ならば 
 f(μj )≧OTよって、f(μj )とOT と
を直接比較しなくても、μj とμT とを比較すれば
よい。こうすると関数fを計算するコストが減る。
【0025】前回の出力値Oj を出力値検出部5で検
出し、これが出力しきい値発生部9で発生されたOT 
以上であるかを出力値比較部7にて調べる(A10)。 また、入力値μj を入力値検出部6で検出し、これが
入力しきい値発生部10で発生されたμT 以上である
かを入力値比較部8にて調べる(A11)。A11は、
現在の出力値f(μj )がOT 以上であるというこ
とと同意である。A10もしくはA11という条件を満
たしている人工的ニューロンに限って(以上を行う図1
の100がニューロン選択手段である)、新しい出力値
f(μj )を出力値計算部11にて計算し、変数ou
tに代入する(A12)。出力値の変化量(Oj とo
utとの差の絶対値)が、ユーザによって設定された誤
差量εよりも小さい場合には、A15〜A19の処理を
行なわない(A13)。A15〜A19の処理を行う場
合には、出力値が変化したことを表すフラグchang
eを1にする(A14)。人工的ニューロンjとリンク
で接続されている全ての人工的ニューロンiをニューロ
ン補助取出部12にて取り出し、人工的ニューロンiへ
の入力値μiを、3ページの上式に示した差分計算によ
り更新する(A15〜A18)。この入力値μi の計
算は、出力値計算部11からのf(μj )(あるいは
out)と、リンク重み検出部13からのWjiとを用
いて、入力値計算部14にて行われる。計算された新し
いμi が、ニューロン補助指定部16を通して神経回
路網部1に送られることにより、人工的ニューロンiへ
の入力値μi が更新される。その後、人工的ニューロ
ンjの出力値Oj を新しい値outに更新する(A1
9)。これは、新しい出力値outが、ニューロン指定
部15を通して神経回路網部1に送られることにより実
現される。A9〜A21の人工的神経回路網処理計算を
、出力値の変化した人工的ニューロンがなくなるまで(
A22)反復して行う。
【0026】次に、本発明の具体的な応用例として、人
工的神経回路網の連想機能を用いた仮名漢字変換技術に
ついて説明する。日本語には読みが同じである語や句が
多く存在するので、日本語ワードプロセッサにおいては
同音語選択(仮名漢字変換候補の提示)が重要な技術で
ある。例えば、特願平1−157159号にて提案した
仮名漢字変換装置によれば、語や句の間の関係を表すネ
ットワークを用いることにより、文脈に即した適切や語
句を仮名漢字変換候補として選び出すことができる。語
や句の間の関係を表すネットワークの一例を図4の下部
に示す。各人工的ニューロン(以降これをノードと呼ぶ
)はそれぞれ語(句)に対応し、双方向性の重み付きリ
ンクがノード間を接続している。このリンクの重みはノ
ードに対応する語(句)の間の意味的な近さを表し、重
みが大きいほどそのリンクでつながれている2つの語(
句)の関係が深いものとする。
【0027】この語ネットワークを、前述したHopf
ieldモデル型の神経回路網として動作させて連想を
行う。ユーザがある語(仮名漢字変換候補)を選択(受
理)すると、その語に対応するノードjに正の外部入力
Ij を与えて、このノードの出力値を大きくする(ノ
ードを興奮させる)。さらに、ユーザが拒否した語に対
応するノードjに負の外部入力Ij を与えて、このノ
ードの出力値を小さくするようにしてもよい。このノー
ドの出力値の上昇あるいは下降が、数1に従ってリンク
を伝搬し、入力中の文脈に沿った語に対応するノードが
興奮している状態が作り出される。
【0028】ユーザがこの仮名漢字変換装置に仮名(あ
るいは語句の読み)を入力すると、装置は、入力された
読みに属する同音語に対応するノードの出力値を、上記
の語ネットワークから検出する。そして、ノードの出力
値の大きい順に、そのノードに対応する語句を仮名漢字
変換候補として出力・提示する。
【0029】上記の仮名漢字変換装置の例における語ネ
ットワークでは、入力中の文章の話題に属する語句に対
応するノードの出力値のみが大きく値を持ち、一般に、
ある話題に関係する語句の数は関係しない語句の数に比
べて遥かに少ない。つまり、この語ネットワーク中に、
ノードは語句に対応した数だけ(数万程度)あるが、そ
の中で出力値が大きいもの(例えば、正であるもの)は
高々数%にすぎない。しかも、この場合には、話題に関
係する即ち出力値の大きいノードのみが重要であり、出
力値の小さい(例えば、負の)ノードの出力値の値自体
には意味がない。
【0030】そこで、この仮名漢字変換装置における語
ネットワークの連想に、本実施例に係る人工的神経回路
網処理方式を応用することができる。このときの処理の
流れは、図2に多少変更を加えた図5のようなフロー図
で示される。
【0031】まず、A41でノードの出力値(Oj )
を初期化し、A43でノードへの入力値(μj )を初
期化するのは、図2のA1〜A8と同様である。A44
〜A60を1サイクルとして、語ネットワーク(あるい
は人工的神経回路網)の処理を行う。
【0032】図2ではIj が固定の場合の本方式を示
したが、Ij が変動する場合には以下のような操作を
行う。Ij が変動することは、連想すべきパターン(
ネットワークの状態)が時々刻々と変化するということ
である。jはノードの番号を示す変数であり、j=1〜
Nの全ノードについて、まず、Ij が変化したか否か
を判定する(A45)。ユーザがノードに対応する語句
を受理/拒否することによりIj の変動は、A44〜
A60のどのタイミングでも起こる可能性があるが、こ
のIj の変動をいったんバッファに記憶しておき、A
45で直前の1サイクル間にIj に変化があったかど
うかをバッファから検出する。変化があった場合には、
入力値μj にIj の変化量を加える。
【0033】A49〜A60の処理は、図2のA9〜A
21と同様であるが、フラグchangeは必要ない。 なぜなら、Ij が固定の場合は出力値の変化したノー
ドがなくなったときに処理を終了したが、この場合には
仮名漢字変換を続ける限りIjは変化し続けるため、出
力値の変化したノードがなくなることはなく、A44〜
A60の処理が繰り返される。なお、この場合は、出力
値の大小を分けるしきい値OT =0、μT =0とす
ればよい。
【0034】ここで、しきい値OT (第1の所定値)
について、さらに説明する。例えば、人工的ニューロン
の出力値分布がおおむね図6のような形になるように神
経回路網が構成されていたとする(関数fの上限下限は
各々1,−1である)。この場合、OT =0とすれば
所望の効果が得られるが、OT を例えば−0.5〜0
.5の間の任意の値に設定しても、同様の効果が得られ
る。OT を−1に近づければ出力値計算の全体の精度
が上がり、OT を1に近づければ計算量削減の効果が
大きくなることは自明である。また、ここでOT =−
1とすることは本発明の趣旨をはずれる。
【0035】また、装置が、入力された読みに対する仮
名漢字変換候補を出力するために、その読みに属する同
音語に対応するノードの出力値を検出するタイミングは
、図4中に示されたタイミング1あるいはタイミング2
とする。本来、出力値の検出は、全てのノードについて
出力値の更新(1サイクル)が終了した時点であるタイ
ミング1になされるよう割込み制御をすることが望まし
いが、これでは応答時間が遅い場合には、あるノードに
ついて出力値の更新が終了した時点であるタイミング2
で行ってもよい。
【0036】ここで、図4を用いて以上説明した仮名漢
字変換の具体例について述べる。ここでは、「クロック
の立ち上がりにおいて、この信号はプロセッサに取り込
まれる。」までが既に入力され、正しくは変換されてい
るものとする。ユーザが「クロック」、「信号」、「プ
ロセッサ」という語の仮名漢字変換を受理したことによ
り、図1の外部入力発生部2を介してそれらに対応する
ノードが強制的に興奮させられている。更にそれらのノ
ードに近いいくつかのノードにも図4のアルゴリズムに
従って興奮が伝播し、興奮したノードの集団(図中の領
域30のノード群)が形成されている。これが、現在入
力されている文章の分野を表現している。次に「このよ
うにどうきして…」の「どうき」を仮名漢字変換するこ
とになる。「どうき」という読みを持つ語が3つ(「同
期」、「動機」、「動悸」)あるものとする。ここでは
計算機のハードウェア関連の文章が選択されているので
、上述したように、それに関係する語に対応するノード
の出力値が高くなっている。例え、「同期」という語が
今まで同一文章中で出現していなくても、計算機のハー
ドウェア関係の語がいくつか選択されているので、図4
のアルゴリズムに従って出力値の上昇が伝播され「同期
」に対応するノードの出力値も大きくなっているはずで
ある。そこで、「どうき」を仮字漢字変換する旨の指示
を受けると、図1の出力値参照部3が図4中のタイミン
グ1あるいは2で「どうき」という読みを持つ3つの語
に対応するノードの出力値を比較し、その中で最も出力
値の大きい「同期」を第一候補として提示する。
【0037】なお、特願平2−085649号に記載さ
れているように、出力値分布が一方に偏っている場合に
は、多数派を占めている方、上記の例では出力値の小さ
い方の人工的ニューロンの影響を小さくした方が、連想
がうまく行える。出力値の小さい(負の)人工的ニュー
ロンの影響を小さくするために、具体的には、人工的ニ
ューロンjの入力値に施す関数fが、 任意のx>0の大部分の値について f(x)>−f(−x) であるように、fを設定している。ところが、本発明に
用いれば、出力値の小さい人工的ニューロンについては
計算を行わないから、上記のような設定を行わなくても
、出力値の小さい人工的ニューロンの影響は小さくなり
、連想がうまく行える。また、人工的ニューロンの出力
値を計算する際に、ネットワークの慣性を考慮して、数
2のような連想を行う場合にも本発明を適用できる。
【0038】
【数2】
【0039】なお、本発明は、上述した仮名漢字変換装
置のみでなく、例えば、本発明者が特願平3−3125
1号にて提案した認識装置等にも応用できる。これは、
上述したような人工的神経回路網を用いて、入力した文
字や音声や画像等の情報をシンボルとして認識するもの
である。まず、入力した情報と近い複数のシンボルを候
補とし、次に、この候補が入力した情報とどの程度似て
いるかを示す確信度と、上記の人工的神経回路網内のこ
の候補に対応するノードの出力値とに基づいて、最適な
シンボルを選ぶ。この場合の人工的神経回路網において
も、入力された情報の文脈に即したシンボルに対応する
ノードのみが大きな値を持ち、一般に、ある文脈で出現
する可能性の高いシンボルの数はこの文脈と関係しない
シンボルの数に比べて遥かに少ないという特徴があるか
ら、本方式がそのまま適用できる。
【0040】
【発明の効果】以上説明したように、本発明に係る人工
的神経回路網処理装置によれば、人工的ニューロンの出
力値の分布が一方に偏っている場合に、多数脈を占める
出力値を持つ人工的ニューロンについては計算を省略し
て、高速な処理を行うことができる。特に、連想すべき
パターンが変化するような場合には、高速な処理により
連想の追従性が良くなる。
【図面の簡単な説明】
【図1】  本実施例に係る人工的神経回路網処理装置
の構成例を表す図。
【図2】  本実施例に係る人工的神経回路網処理方式
を表すフロー図。
【図3】  本実施例における人工的神経回路網の構成
要素である人工的ニューロンを模式的に表す図。
【図4】  本実施例の応用例である仮名漢字変換の仕
組みを表す図。
【図5】  本実施例方式(図2)を仮名漢字変換に応
用した場合の処理の流れを表すフロー図。
【図6】  人工的ニューロンの出力値分布の一例を示
す図。
【符号の説明】
1…神経回路網部 2…外部入力発生部 3…出力値参照部 4…ニューロン取出部 5…出力値検出部 6…入力値検出部 7…出力値比較部 8…入力値比較部 9…出力しきい値発生部 10…入力しきい値発生部 11…出力値計算部 12…ニューロン補助取出部 13…リンク重み検出部 14…入力値計算部 15…ニューロン指定部 16…ニューロン補助指定部 100…ニューロン選択手段

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】  入力値と出力値とを持つ人工的ニュー
    ロンを複数個接続して構成される人工的神経回路網と、
    この人工的神経回路網から、出力値が第1の所定値以上
    であるか、あるいは、入力値が第2の所定値以上である
    人工的ニューロンを選択する選択手段と、この選択手段
    により選択された人工的ニューロンの入力値に関数を作
    用させて新たな出力値を求める第1の更新手段と、この
    第1の更新手段で求められた出力値に基づいて、前記選
    択手段により選択された人工的ニューロンに接続された
    人工的ニューロンの入力値を更新する第2の更新手段と
    を具備したことを特徴とする人工的神経回路網処理装置
  2. 【請求項2】  前記第1の所定値は、出力値が前記第
    1の所定値以上の人工的ニューロンの数が、出力値が前
    記第1の所定値より小さい人工的ニューロンの数よりも
    少ないように定めたものであり、前記第2の所定値は、
    前記第1の所定値に前記第1の更新手段における関数の
    逆関数を作用させて求められるものであることを特徴と
    する請求項1記載の人工的神経回路網処理装置。
  3. 【請求項3】  入力値と出力値とを持つ人工的ニュー
    ロンを複数個接続して構成される人工的神経回路網と、
    この人工的神経回路網から、出力値が第1の所定値以下
    であるか、あるいは、入力が第2の所定値以下である人
    工的ニューロンを選択する選択手段と、この選択手段に
    より選択された人工的ニューロンの入力値に関数を作用
    させて新たな出力値を求める第1の更新手段と、この第
    1の更新手段で求められた出力値に基づいて、前記選択
    手段により選択された人工的ニューロンに接続された人
    工的ニューロンの入力値を更新する第2の更新手段とを
    具備したことを特徴とする人工的神経回路網処理装置。
  4. 【請求項4】  前記第1の所定値は、出力値が前記第
    1の所定値以下の人工的ニューロンの数が、出力値が前
    記第1の所定値より大きい人工的ニューロンの数よりも
    少ないように定めたものであり、前記第2の所定値は、
    前記第1の所定値に前記第1の更新手段における関数の
    逆関数を作用させて求められるものであることを特徴と
    する請求項3記載の人工的神経回路網処理装置。
JP10702091A 1991-05-13 1991-05-13 人工的神経回路網処理装置 Pending JPH04336370A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10702091A JPH04336370A (ja) 1991-05-13 1991-05-13 人工的神経回路網処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10702091A JPH04336370A (ja) 1991-05-13 1991-05-13 人工的神経回路網処理装置

Publications (1)

Publication Number Publication Date
JPH04336370A true JPH04336370A (ja) 1992-11-24

Family

ID=14448481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10702091A Pending JPH04336370A (ja) 1991-05-13 1991-05-13 人工的神経回路網処理装置

Country Status (1)

Country Link
JP (1) JPH04336370A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor
US12248367B2 (en) 2020-09-29 2025-03-11 Hailo Technologies Ltd. Software defined redundant allocation safety mechanism in an artificial neural network processor

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11216717B2 (en) 2017-04-04 2022-01-04 Hailo Technologies Ltd. Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements
US11238334B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method of input alignment for efficient vector operations in an artificial neural network
US11238331B2 (en) 2017-04-04 2022-02-01 Hailo Technologies Ltd. System and method for augmenting an existing artificial neural network
US11263512B2 (en) 2017-04-04 2022-03-01 Hailo Technologies Ltd. Neural network processor incorporating separate control and data fabric
US11461614B2 (en) 2017-04-04 2022-10-04 Hailo Technologies Ltd. Data driven quantization optimization of weights and input data in an artificial neural network
US11221929B1 (en) 2020-09-29 2022-01-11 Hailo Technologies Ltd. Data stream fault detection mechanism in an artificial neural network processor
US11237894B1 (en) 2020-09-29 2022-02-01 Hailo Technologies Ltd. Layer control unit instruction addressing safety mechanism in an artificial neural network processor
US11263077B1 (en) 2020-09-29 2022-03-01 Hailo Technologies Ltd. Neural network intermediate results safety mechanism in an artificial neural network processor
US11811421B2 (en) 2020-09-29 2023-11-07 Hailo Technologies Ltd. Weights safety mechanism in an artificial neural network processor
US11874900B2 (en) 2020-09-29 2024-01-16 Hailo Technologies Ltd. Cluster interlayer safety mechanism in an artificial neural network processor
US12248367B2 (en) 2020-09-29 2025-03-11 Hailo Technologies Ltd. Software defined redundant allocation safety mechanism in an artificial neural network processor

Similar Documents

Publication Publication Date Title
US11544573B2 (en) Projection neural networks
CN113591483A (zh) 一种基于序列标注的文档级事件论元抽取方法
CN107590127B (zh) 一种题库知识点自动标注方法及系统
US11010664B2 (en) Augmenting neural networks with hierarchical external memory
EP3549031B1 (en) Language data prediction with neural networks and online learning
CN112215013B (zh) 一种基于深度学习的克隆代码语义检测方法
CN113704416B (zh) 词义消歧方法、装置、电子设备及计算机可读存储介质
US11650996B1 (en) Determining query intent and complexity using machine learning
KR20200127948A (ko) 설명이 부가된 문서 분류 정보를 제공하는 방법
US20230177097A1 (en) Multi-phase training of machine learning models for search ranking
CN110008332B (zh) 通过强化学习提取主干词的方法及装置
KR102851911B1 (ko) 기계 학습 모델들의 하드웨어 인식 점진적 훈련
CN114444515A (zh) 一种基于实体语义融合的关系抽取方法
JPH04336370A (ja) 人工的神経回路網処理装置
JP2020046792A (ja) 情報処理装置、情報処理方法、およびプログラム
Krantz et al. Language-agnostic syllabification with neural sequence labeling
CN115329075A (zh) 基于分布式机器学习的文本分类方法
CN112380861B (zh) 模型训练方法、装置及意图识别方法、装置
CN106897388A (zh) 预测微博事件热度的方法及装置
CN110909860A (zh) 神经网络参数初始化的方法和装置
JP2020052935A (ja) 学習済みモデルを生成する方法、データを分類する方法、コンピュータおよびプログラム
Nguyen et al. Statistical post-processing approaches for OCR texts
US20250232135A1 (en) Detecting and selectively buffering markup instruction candidates in a streamed language model output
McQueen et al. A recurrent self-organizing map for temporal sequence processing
US20250307648A1 (en) Knowledge distillation for pre-trained language models