JPH0561848A - 最適アルゴリズムの選定及び実行のための装置及び方法 - Google Patents

最適アルゴリズムの選定及び実行のための装置及び方法

Info

Publication number
JPH0561848A
JPH0561848A JP3221526A JP22152691A JPH0561848A JP H0561848 A JPH0561848 A JP H0561848A JP 3221526 A JP3221526 A JP 3221526A JP 22152691 A JP22152691 A JP 22152691A JP H0561848 A JPH0561848 A JP H0561848A
Authority
JP
Japan
Prior art keywords
function
value
algorithm
algorithms
multimodal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3221526A
Other languages
English (en)
Inventor
Hironari Masui
裕也 増井
Ikuo Matsuba
育雄 松葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP3221526A priority Critical patent/JPH0561848A/ja
Publication of JPH0561848A publication Critical patent/JPH0561848A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

(57)【要約】 【目的】与えられた多峰性多変数関数に最適な極小・極
大点探索アルゴリズムの選定と実行、及び同期的変数更
新処理の収束性の改善。 【構成】予め、関数を特徴付ける量の統計量の値が異な
る複数の多峰性多変数関数のそれぞれに、極小点又は極
大点の探索のための複数のアルゴリズムを適用して、そ
の結果についての対比データを作成し、記憶装置101
に格納しておく。ある多峰性多変数関数が与えられる
と、その関数に最適なアルゴリズムを、この関数を特徴
付ける量の統計量の値と前記対比データとに基づいて、
前記複数のアルゴリズムの中から選択する。全変数の同
期的更新に際して、更新の変化量をある割合で圧縮する
ことより、収束性を改善する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、多峰性多変数関数のコ
ンピュータ処理に関し、特に、この型の関数の極小点又
は極大点(それぞれ最小点と最大点を含む)を探索する
ための最適アルゴリズムの、コンピュータによる選定と
実行に関する。この型の関数のコンピュータ処理は、各
種の最適化問題の求解、各種の制御などに応用される。
【0002】
【従来の技術】多峰性多変数関数の最小点の探索の代表
的な例は、ニューラルネットワークモデルを用いて最適
化問題を解く場合の、エネルギー最小化計算である。
【0003】従来、ニュ−ラルネットワ−クのエネルギ
−最小化のためのアルゴリズムとしては、Biological C
ybernetics, Vol.52,1985年,第141−152
頁,「"Neural" Computation of Decisions in Optimiz
ation Problems」(以後文献1という)に述べられてい
る方法、SCIENCE, Vol.220, No.4598,198
3年5月13日,第671−680頁,「Optimization
by simulated annealing」(以後文献2という)に述
べられている方法、電子情報通信学会技術研究報告,9
0,274,1990年,第1−6頁,「平均場近似ア
ニ−リング法による最適化計算法」(以後文献3とい
う)に述べられている方法等があった。文献1に述べら
れている方法は、高速であるが、極小解にトラップされ
ると脱出不可能であり、文献2に述べられている方法
は、最小解への到達が可能であるが、計算時間が非常に
長く、文献3に述べられている方法は、短時間で最小解
の近似解が得られる。このように、これらの提案された
諸アルゴリズムは、それぞれの特徴を持っている。
【0004】また、エネルギー最小化処理の過程で、各
ニューロンの状態を反復的に多数回更新することが必要
である。ニューロンの状態更新の基本的な方法は、同期
的方法と非同期的方法である。同期的方法は、全ニュー
ロンの状態を並行的に更新するものであり、計算時間は
短いが、ニューラルネットワークの状態が必ずしも常に
安定点に収束するとは限らない。他方、非同期的方法
は、ある一つのニューロンの状態を更新してから、この
ニューロンの更新された状態を前提として次のニューロ
ンの状態を更新するという、逐次的な方法であり、収束
は確実に生じるけれども、長時間を要する。折衷的な方
法として、村田健郎他著、1988年丸善発行、「工学
における数値シミュレ−ション」、第57頁(以後文献
4という)に述べられている、チェッカ−ボ−ド法があ
る。この方法は、ニュ−ロンを格子点に割当てて、その
座標値の和によって偶数点と奇数点とに分類し、偶数点
だけの同期的更新と奇数点だけの同期的更新を交互に繰
り返すというものであり、比較的短時間での確実な収束
が期待できる。
【0005】
【発明が解決しようとする課題】前述のように、従来提
案されている諸アルゴリズムは、それぞれの特徴を持っ
ているので、適用対象となる多峰性多変数関数の性質
(例えば、ニューラルネットワークの構成によって定ま
るような)に応じて、最適なアルゴリズムを選択するこ
とが望ましい。しかるに、これらのアルゴリズムの中か
ら、任意に与えられた多峰性多変数関数にとって最適な
(例えば、与えられたニューラルネットワークに対し
て、そのエネルギ−を最も小さくなしうるような)アル
ゴリズムを、予め定量的に判断して選定するための選択
基準は、未だ知られていない。
【0006】また、変数の値(例えば、ニュ−ロンの状
態)の反復更新についても、前述のチェッカーボード法
は、一般的には計算時間の短縮と確実な収束が期待でき
るとはいえ、全変数(ニュ−ロン)を複数の群に分け
て、各群ごとの同期的更新を逐次的に行なわなければな
らないため、処理が複雑になり、ス−パ−コンピュ−タ
等でベクトル化して計算を行なう場合には、ベクトル化
率が低くなって、計算時間が長くなるという欠点があっ
た。
【0007】本発明の第1の目的は、与えられた多峰性
多変数関数に最適な(例えば、ニュ−ラルネットワ−ク
に対して最もエネルギ−を小さくするような)極小点又
は極大点探索アルゴリズムを、複数のアルゴリズムの中
から自動的に選定し、更にはそれを実行することができ
る装置及び方法を、提供することにある。
【0008】本発明の第2の目的は、群分けをせずに全
変数の値(例えば、全ニュ−ロンの状態)を一斉に同期
的に更新しても、確実な収束が期待できるような変数更
新方法を、提供することにある。
【0009】
【課題を解決するための手段】本発明の基本的特徴の一
つは、多峰性多変数関数の特徴の指標として、関数を特
徴付ける量(例えば、ニューラルネットワークの構成)
自体ではなく、それらの統計量を採用し、諸アルゴリズ
ムを適用した結果がこのような統計量の変化によってど
のように変化するかを示すデータを、予め作成して保持
し、このデータを、最適アルゴリズムの選定の尺度とし
て参照するところにある。
【0010】すなわち、本発明の最適アルゴリズム選定
装置は、関数を特徴付ける量の統計量の値を異にする複
数の多峰性多変数関数のそれぞれについての、複数の極
小点又は極大点探索アルゴリズムの適用結果の対比デー
タが格納されている記憶装置と、与えられた多峰性多変
数関数に最適なアルゴリズムを、この与えられた多峰性
多変数関数を特徴付ける量の統計量の値と前記対比デー
タとに基づいて、前記複数のアルゴリズムの中から選択
する、処理装置とを備える。この統計量としては、例え
ば、しきい値の平均と分散の少なくとも一方を用いるこ
とができる。
【0011】ニューラルネットワークの場合には、この
関数はエネルギー関数であり、関数を特徴付ける量はシ
ナプスの結合荷重とニューロンのしきい値の少なくとも
一方であり、対比データは算出された最小エネルギーで
ある。非線形計画法の場合には、関数は非線形計画法に
おける評価関数であり、関数を特徴付ける量はこの評価
関数における係数の少なくとも一つであり、対比データ
は算出された最小関数値又は最大関数値である。また、
ニューラルネットワークからなる連想記憶の場合には、
関数はこの連想記憶の特性を表わす関数であり、関数の
特徴を表わす量は連想記憶の一群のキーパターンの相関
量であり、対比データは連想記憶の応答の正誤率を示す
データである。
【0012】この装置における最適アルゴリズム選定方
法は、ニューラルネットワークと非線形計画法の場合に
は、与えられた多峰性多変数関数を特徴付ける量の統計
量の値を計算するステップと、前記対比データを参照し
て、この計算された統計量の値に最も近い統計量の値に
対して最小又は最大の関数値を与えるアルゴリズムを選
択するステップとを備える。また、連想記憶の場合に
は、与えられた一群のキーパターン中の諸パターン対間
の相関量の値の平均及び分散の少なくとも一方の値を計
算するステップと、前記対比データを参照して、前記計
算された値に最も近い同種の量の値に対して最も良い正
誤率を与えるアルゴリズムを選択するステップとを備え
る。これらの方法において、実質上同一の関数値又は正
誤率を与える複数のアルゴリズムが存在するときには、
それらの中から計算時間が最も短いものを選択すればよ
い。
【0013】前記の最適アルゴリズム選定装置の記憶装
置に、更に、前記複数のアルゴリズムのそれぞれを実行
するためのプログラムを格納し、そして、処理装置に、
選択した最適アルゴリズムを実行するためのプログラム
を実行する機能を与えれば、最適アルゴリズム実行装置
が得られる。
【0014】本発明のもう一つの基本的特徴は、選択さ
れたアルゴリズムの実行に際して、諸変数の値の更新に
おける変化量を、通常の方法によるよりも圧縮して、同
期的更新を行なうところにある。
【0015】すなわち、本発明の変数値更新方法は、選
択されたアルゴリズムに従って仮の更新値を算出するス
テップと、前記仮の更新値と更新前の値の差を所定のパ
ラメータに従って圧縮して更新後の値を決定するステッ
プと、これらの両ステップを適用して全変数の値を同期
的に更新するステップを含む。このパラメータは、定数
でもよいし、あるいは、反復更新の回が進むにつれて一
定の方向に変更されてもよい。
【0016】
【作用】本発明の最適アルゴリズム選定装置及び方法に
よれば、コンピュータが、与えられた多峰性多変数関数
を特徴付ける量の統計量の値を計算し、この計算された
統計量の値をキーとして、記憶装置に保持されている諸
アルゴリズムの性能対比データを参照して、与えられた
関数に最適なアルゴリズムを選定する。
【0017】また、本発明の最適アルゴリズム実行装置
によれば、コンピュータが、前述のようにして選定した
最適アルゴリズムを、与えられた関数に適用して、解を
作成する。
【0018】更に、本発明のアルゴリズム実行方法によ
れば、各変数の値の更新に際して、急激な値の変化を抑
制しつつ、全変数の値の同期的な更新を行なう。その結
果、高速でしかも確実な収束が期待できる。
【0019】
【実施例】図1は、本発明による最適アルゴリズム選定
・実行装置の概要を示す。外部メモリ101には、複数
の最小化アルゴリズムを実行するための各プログラム
と、これらのアルゴリズムを構成の統計量が異なる種々
のニューラルネットワークに適用したときの優劣を表わ
す、アルゴリズム対比データとが、保持されている。与
えられたニュ−ラルネットワ−クの構造を表わすデータ
をキ−ボ−ド102により入力し、コンピュ−タ103
は、このニューラルネットワークの構成の統計量を算出
し、外部メモリ101に保持されているアルゴリズム対
比データを参照して、このニューラルネットワークに最
適なアルゴリズムを選定し、そして、選定されたアルゴ
リズムを適用して、このニュ−ラルネットワ−クのエネ
ルギ−最小化計算を実行し、得られた解をディスプレイ
104に表示する。
【0020】アルゴリズム対比データは、前記の文献3
でも用いられているスピングラスモデルを試算の対象と
して用い、結合荷重としきい値の統計量が異なる種々の
スピングラスモデルに各アルゴリズムを適用して、得ら
れた最小エネルギーの値を、その場合の前記統計量と共
に、対比に便利な形式に編集したものである。与えられ
たニュ−ラルネットワ−クの同種の統計量を算出して、
それらの値をキーとしてアルゴリズム対比データを参照
することにより、このニューラルネットワークに最適な
アルゴリズムを選定することができる。また、選定され
たアルゴリズムの適用に際して、各ニューロンの状態
(出力値)の更新における変化量を適当に圧縮すること
により、同期的更新を行なうにもかかわらず、確実な収
束が期待できる。
【0021】一般に、ニュ−ラルネットワ−クは、図2
に示す相互結合型ニュ−ラルネットワ−クで表わされ
る。複数のニューロン201が、それぞれ固有の結合荷
重を持つシナプス202によって相互接続されている。
各ニューロン201は、図3に示すように、しきい値と
出力関数304を有し、重み付き総入力303の値に応
じて出力信号305を決定する。出力関数は、本実施例
では、図4に示すような離散的に2値のみを取りうる階
段関数401ではなく、単調増加するアナログ値を取り
うる飽和型のシグモイド関数とした。これらニューロン
の協調的及び競合的な動作により、ネットワ−クのエネ
ルギ−は、最小値状態へ向かって収束して行く。なお、
エネルギ−関数は、Wijをi番目のニューロンからj番
目のニュ−ロンへの結合荷重、aiをi番目のニュ−ロ
ンのしきい値、Viをi番目のニューロンの出力値、N
をニュ−ロンの総数としたとき、一般に次式で定義され
る。
【0022】
【数1】
【0023】まず、アルゴリズム対比データの作成手順
を説明する。一般に、相互結合型ニュ−ラルネットワ−
クのエネルギ−関数は、複雑なエネルギ−曲面を呈し、
多くの極小解を有する。そのため、エネルギ−が真に最
小となる最適解に達することは非常に困難であり、良質
な準最適解へ高速に到達するための様々なアルゴリズム
が提案されている。本実施例では、代表的なアルゴリズ
ムとして、文献1に記載されたホップフィ−ルドらの方
法(以後H法と略称する)、文献2に記載されたシミュ
レ−テッドアニ−リング法(以後SA法と略称する)、
並びに文献3に記載された平均場近似アニ−リング法
(以後MFAA法と略称する)と混合法を採用し、これ
らをスピングラスモデルに適用する。スピングラスモデ
ルでは、ニュ−ロン間の結合荷重と各ニュ−ロンのしき
い値が正又は負の値を取りうる正規乱数として与えら
れ、かつ、Wij=Wjiである。このとき、設定する正規
乱数の平均と分散を変えることにより、エネルギ−曲面
の形状が調節可能である。
【0024】図5及び図6は、前記のモデルにおいて、
結合荷重の平均WA及び分散Wσ、並びにしきい値の平
均aA及び分散aσが変化したときの、前記4アルゴリ
ズムの性能の比較結果を示す。各アルゴリズムにおける
反復計算回数は、H法では1000回、SA法とMFA
A法では10000回とし、混合法では、MFAA法で
100回、その後のSA法で10000回とした。ニュ
ーロンの総数は50個である。そして、10種類の系列
を異にする正規乱数を初期状態として与え、各結果のエ
ネルギ−値の平均がプロットされている。これらのグラ
フにおいて、横軸(対数目盛)は変化せしめられた統計
量を示し、縦軸は、H法により得られた最小エネルギ−
値EHを基準として、その他のアルゴリズムで得られた
最小エネルギ−EのEHに対する規格化誤差ER、すな
わち、ER=(EH−E)/EHを示している。▽印はS
A法、△印はMFAA法、○印は混合法を、それぞれ表
わす。ER=0%の横軸がH法による求解結果であり、
規格化誤差が正の大きな値になるほど、より最適解に近
い解が得られたことを示す。
【0025】図5(A)は、結合荷重の分散Wσのみを
変化させ、結合荷重の平均WA並びにしきい値の平均aA
及び分散aσを“0”に設定したときの、これら4種の
アルゴリズムの性能の比較結果を示す。横軸はWσを示
す。まず、SA法に着目すると、これによる解は、常
に、4アルゴリズムの中で最も最適解から遠い。したが
って、このアルゴリズムは、現実的な反復回数の範囲で
は、有効性を充分に発揮することができそうもない。次
に、MFAA法は、Wσが2以下のときには、これらの
アルゴリズムの中で最良の解が得られている。しかしな
がら、Wσが3以上では混合法と順位が逆転し、Wσが
8以上ではH法と同等になり、このように、Wσの増加
に従って徐々に性能が劣化している。この原因は、MF
AA法は近似法であるため、Wσが大きくなってエネル
ギ−曲面が複雑になり、多くの極小点が生じるにつれ
て、近似化による誤差が大きくなるためであると、定性
的に理解できる。他方、混合法は、Wσが0.07以下
ではH法より僅かに劣るが、しかし、Wσが0.08以
上では安定して良好な解が得られている。これは、Wσ
が大きくなって極小解が増加したときに、単純な最急降
下法であるH法とは対照的に、極小解からの脱出が可能
な混合法の特質が発揮されるためである。
【0026】次に、図5(B)は、Wσ=0.1、aσ
=aA=0として、結合荷重の平均WAを変化させたとき
の比較結果を示す。MFAA法と混合法はWAが0.0
2以上、SA法はWAが0.4以上で、H法と同等にな
る。これは、結合荷重の平均が大きくなるにつれて、結
合荷重の分散の影響が小さくなり、エネルギ−曲面が単
調になるためであろう。
【0027】更に、図6(A)は、Wσ=0.1、WA
=aA=0として、しきい値の分散aσを変化させたと
きの比較結果を示す。優劣はaσが変化しても変動せ
ず、しきい値の分散の影響はほとんど無視できることが
分かる。
【0028】最後に、図6(B)は、Wσ=0.1、W
A=aσ=0として、しきい値の平均aAを変化させたと
きの比較結果を示す。混合法はaAが0.002以上、
MFAA法はaAが0.3以上、SA法はaAが0.7以
上において、それぞれH法と同等になる。これは、しき
い値の平均が大きくなるにつれて、エネルギ−曲面が単
調になるためであろう。混合法は、aAが0.2のとき
にホップフィ−ルドらの方法と優劣が逆転しているが、
その差は2%程度なので、これは誤差とみなせる。
【0029】この他に、Wσを0.1以外の値とした場
合におけるWA、aσ、aAの変化も想定できるが、その
場合でも、アルゴリズムの優劣は同様な傾向を示すもの
と推察される。したがって、最適なアルゴリズムは、W
σのみを考慮するだけでもおおよそは推定可能であり、
厳密性が要求される場合にのみ、WA、aσ、aAについ
ても検討すれば足りるであろう。
【0030】スピングラスモデルについて各種アルゴリ
ズムの性能比較をする処理手順を、図7(A)にPAD
図で示す。図中の各ブロックにおける処理は、次のとお
りである。
【0031】ブロック701:結合荷重及びしきい値を
初期状態に設定する。 ブロック702:結合荷重及びしきい値の終了状態を設
定する。 ブロック703:結合荷重がブロック702で設定した
終了状態になるまで、ブロック704ないし707を繰
り返す。 ブロック704:結合荷重を変化させる。 ブロック705:しきい値がブロック702で設定した
終了状態になるまで、ブロック706と707を繰り返
して、ブロック703へ処理を移す。 ブロック706:しきい値を変化させる。 ブロック707:諸アルゴリズムの性能比較を行なう。
すなわち、ブロック701、704、706での処理に
より特定された結合荷重としきい値の下で、各アルゴリ
ズムによりエネルギー最小化計算を行ない、得られた解
(最小エネルギー値)と、そのときのWA、Wσ、aA、
aσを記録する。解の値そのものの代りに、それらを比
較して得られる順位を記録してもよい。以上の処理が終
わると、ブロック705へ処理を移す。
【0032】このようにして得られた性能比較の結果を
参照すれば、与えられた任意のニュ−ラルネットワ−ク
の同種統計量から、最適なアルゴリズムを選定すること
が可能であるから、その選定されたアルゴリズムを用い
て、与えられたニュ−ラルネットワ−クのエネルギ−最
小化計算を実行すればよい。図7(B)は、与えられた
ニューラルネットワークに最適なアルゴリズムを選定す
る処理手順を、PAD図で示す。図中の各ブロックにお
ける処理は、次のとおりである。
【0033】ブロック708:与えられたニュ−ラルネ
ットワ−クの結合荷重及びしきい値の統計量Wσ、W
A、aσ、及びaAを計算する。 ブロック709:ブロック708で得た統計量に最も近
い統計量に対する、前述のアルゴリズム性能比較結果を
参照する。 ブロック710:ブロック709での参照の結果に基づ
き、最も小さいエネルギー値を与えるアルゴリズムを選
定する。なお、この観点からは同等な複数のアルゴリズ
ムが存在する場合には、他のファクター、例えば、計算
時間などに従って、選定を行なえばよい。
【0034】次に、この選定方法の有効性を、巡回セ−
ルスマン問題(以後TSP問題と略称する)を例にとっ
て検証する。TSP問題とは、各都市を1度だけ通過し
て全都市を回るときに、都市間の移動距離の合計を最小
とする経路を求める問題である。これは、多項式で表わ
せる時間内では求解困難な、いわゆるNP完全問題であ
る。TSP問題のエネルギ−関数を次式に示す。
【0035】
【数2】
【0036】ただし、ニューロンはn行n列に配列さ
れ、各行は各都市に対応し、各列は巡回の順位に対応す
る。VXiはX行i列のニュ−ロンの出力を表わし、dXY
はX番目とY番目の都市の距離を表わし、A、B、及び
Cは任意の定数を表わす。このエネルギ−関数の第1項
は、各VXYが2値(0,1)の一方に飽和したときに最
小値“0”を取り、第2項は、各行及び各列で1個のニ
ュ−ロンのみが“1”を出力して、他のニューロンはす
べて“0”を出力するときにのみ最小値“0”を取り、
第3項は、巡回総距離に対応し、これが最小になれば解
が得られたことになる。数2を数1と対応させて、結合
荷重及びしきい値を設定する。
【0037】定数A、B、及びCを調節してWσ、W
A、aσ、及びaAを3通りに変化させたときの、各アル
ゴリズムで得られた規格化エネルギ−E/Nの比較を図
8に示し、図8における条件2の下で、各アルゴリズム
により得られた巡回経路を図9に示す。図9において、
(A)はH法(反復1000回)、(B)はSA法(反
復1000回)、(C)はMFAA法(反復1000
回)、(D)は混合法(MFAA法で反復10回、SA
法で1000回)により、それぞれ得られたものであ
る。
【0038】条件1と条件2では、アルゴリズムの優秀
さは、混合法、MFAA法、H法、SA法の順番になっ
た。条件3では、混合法及びMFAA法とH法がほぼ同
等であり、SA法が若干劣った。この結果は、図5
(A)の対応するWσでの順位と矛盾しない。WAとaA
が大きいために、混合法及びMFAA法とH法の差は僅
かになった。しかしながら、図5(A)と同様に、Wσ
が小さくなるにつれてエネルギ−差が減少する傾向は現
れており、また、エネルギ−差は微小であっても、図9
(C)と(D)では巡回経路が異なっていることから、
単なる数値誤差ではないことが確認できる。
【0039】したがって、前述の方法により、複数のア
ルゴリズムの中から、与えられた問題に対して最適なア
ルゴリズムを選定することが可能である。次に、本発明
によるニューロン状態の更新方法を説明する。この方法
は、同期的状態更新方法の収束性を改善し、それによ
り、簡潔なプログラムで短時間に状態更新を行なうこと
ができ、ひいては、エネルギー最小化計算の高速化をも
たらすものである。
【0040】本発明による状態更新方法は、次式に従っ
て、全ニューロンの状態を同期的に更新する。
【0041】
【数3】 Vi(t+1)={Vi'(t+1)+τVi(t)}/(1+τ) Vi'(t+1)=f(Vi(t))
【0042】ここで、Vi(t)は、時刻t、すなわち、
t番目の反復計算で得られた各ニュ−ロンの出力を表わ
す。関数fは、ニュ−ロン状態を更新するアルゴリズム
を表わし、したがって、Vi'(t+1)は、従来の同期的
更新方法で得られる、時刻t+1でのニューロン出力で
ある。パラメ−タτは、後述する範囲内で適当に選ぶこ
とができ、例えば定数でよい。τ=0にすると、通常の
同期的更新と同等になることに注意されたい。上記の式
は、本方法による状態更新の変化量が、従来方法による
変化量の1/(1+τ)に圧縮されたことを意味する。
すなわち、数3は、次式と等価である。
【0043】
【数4】 Vi(t+1)−Vi(t)={Vi'(t+1)−Vi(t)}/(1+τ)
【0044】この方法について、数値シミュレ−ション
により有効性を検証する。対象とするモデルは、スピン
グラスモデル(ニュ−ロン数50)とし、MFAA法を
適用した。
【0045】まず、数3に示した方法において、τを変
化させたときの最小エネルギ−値の変化を図10(A)
に示す。図示のグラフでは、10種類の異なる系列の正
規乱数列を初期状態として、得られた結果の平均値をプ
ロットしている。更に、10種類の初期状態のうちで収
束したものの割合を図10(B)に示す。
【0046】図10(A)よれば、τ=0からτ=0.
1までは、満足できる結果は得られない。これは、図1
0(B)が示すように、収束しなかった場合があって、
そのときの値も平均値計算に含まれるためである。τ=
0.2以上になると、全ての初期状態が収束をもたら
し、エネルギ−値も比較的安定している。ただし、τ=
0.2のときと比較して、τ=0.4では若干の劣化が
見受けられる。これは、τを大きくすると新しい状態に
変化し難くなるためであろう。したがって、τの値は、
0.2以上で、かつ、あまり大き過ぎないように、設定
するのが良いといえる。
【0047】次に、一般に収束性が最も良いと考えられ
る非同期計算法と、単純な同期計算法と、文献4に記載
された、奇数番目のニュ−ロン群と偶数番目のニュ−ロ
ン群を別々に同期計算するチェッカ−ボ−ド法と、本発
明の方法の4手法について、比較検討する。
【0048】シミュレ−ション条件として、各手法での
反復計算回数tを10000回、パラメ−タτを0.2
とし、10種類の系列の異なる正規乱数列をニュ−ロン
の初期状態として設定した。ス−パ−コンピュ−タのベ
クトル演算によるシミュレ−ション結果を、図11に平
均値で示す。
【0049】同期計算では、非同期計算よりも高速化さ
れて計算時間は短いけれども、5種類の初期状態につい
て、2つの状態の間での振動が生じた。つまり、同期計
算法は比較的に収束性の悪い手法であることが分かる。
他方、チェッカ−ボ−ド法では、どの初期状態を与えて
も無事に収束した。計算時間は、同期計算によるよりも
長いが、非同期計算と比較すれば短い。次に、本発明の
方法によれば、収束性が良く、しかも、チェッカ−ボ−
ド法よりも高速化されていることが分かる。したがっ
て、本発明の方法は、従来のチェッカ−ボ−ド法と比較
して、高速で、かつ、プログラム記述の簡便な方法とい
うことができる。
【0050】叙上のシミュレ−ションではパラメ−タτ
を一定値に固定したが、τを反復番号tの関数として変
化させてもよい。その場合、tの増加につれてτを小さ
な値から大きな値へ徐々に増加させてゆけば、収束性が
一層良くなり、逆に、τを大きな値から小さな値へ徐々
に減少させてゆくと、最適解に一層近い解を得られるこ
とが期待できる。また、本方法はMFAA法以外にも適
用可能であり、同様な効果が望める。
【0051】図12は、本方法の具体的な手順をPAD
図で示す。図中の各ブロックにおける処理は、次のとお
りである。
【0052】ブロック1201:状態更新計算の反復回
数Tを設定する。 ブロック1202:各ニューロンの初期状態を設定す
る。 ブロック1203:ブロック1201で設定された反復
回数に達するまで、ブロック1204ないし1207を
繰り返す。 ブロック1204:全ニューロンについて(i=1,
…,N)、反復t番目の出力Vi(t)から、反復t+1
番目の出力Vi'(t+1)を、選定されたエネルギ−最
小化アルゴリズムに従って同期的に計算する。 ブロック1205:パラメータτを設定する。 ブロック1206:全ニューロンについて(i=1,
…,N)、Vi(t)と、ブロック1204で算出したV
i'(t+1)と、ブロック1205で設定したτを用い
て、数3に従って新しい出力Vi(t+1)を計算す
る。
【0053】この状態更新アルゴリズムは、また、前述
した諸アルゴリズムの性能比較のための計算にも、同様
に適用できることはいうまでもない。
【0054】本発明は、非線形計画法のための最適アル
ゴリズムの選定及び実行にも、適用することができる。
組合せ最適化問題を解く方法の一つに非線形計画法があ
り、そのための様々なアルゴリズムが提案されていて、
問題に応じて最適なアルゴリズムを選択するのが望まし
い。それらのアルゴリズムは、ニューラルネットワーク
におけるエネルギー関数と等価な評価関数を設定して、
その最小値(又は最大値)を反復法によって探索するア
ルゴリズムに帰着する。そして、この評価関数の1次項
の係数はニューラルネットワークにおけるしきい値に対
応し、2次項の係数は結合荷重に対応する。したがっ
て、これらの探索アルゴリズムでもって前述の実施例に
おけるエネルギー最小化アルゴリズムを置き換えれば、
非線形計画法の最適アルゴリズムの選定及び実行を行な
うことができる。
【0055】すなわち、予め、評価関数の1次項の係数
と2次項の係数のそれぞれの平均及び分散を種々に異な
らせて、複数の前記探索アルゴリズムにより最小化(又
は最大化)を行ない、得られた最小値(又は最大値)の
対比データを記憶装置に格納しておく。問題が与えられ
ると、それに対する評価関数の1次項の係数と2次項の
係数のそれぞれの平均及び分散を計算し、それらの値に
基づいて前記の対比データを参照して、最小(又は最
大)の評価関数値を与えるアルゴリズムを、最適のアル
ゴリズムとして選定し、そして実行する。このアルゴリ
ズムの実行は、ニューラルネットワークのエネルギー最
小化計算におけるのと同様な反復更新処理を含み、この
処理には、前述したような、状態変化量の圧縮を伴う同
期計算が適用できる。
【0056】本発明は、更に、ニューラルネットワーク
による連想記憶のためのアルゴリズムにも、適用するこ
とができる。一般に、結合荷重としきい値を適当に選定
することにより、ニューラルネットワークに、同程度の
深さの複数のエネルギー極小点、すなわちネツトワーク
の複数の異なる安定状態を持たせることができ、そし
て、どの安定状態に収束するかは、諸ニューロンの初期
状態に依存する。各初期状態を入力パターンに対応付
け、その初期状態から収束する安定状態を出力パターン
に対応付けることにより、連想記憶が実現される。この
ような連想記憶を実現するための種々のアルゴリズムが
あり、それらの間の優劣は、設定したい記憶内容によっ
て異なる。
【0057】本発明によれば、予め、設定すべき諸キー
パターンの間の相関量の平均と分散を変化させて各アル
ゴリズムを適用し、その結果の優劣を示す対比データを
作成して、記憶装置に格納しておく。相関量としては、
キーパターン間の内積を用いることができる。すなわ
ち、p番目のキーパターン及びq番目のキーパターンに
対するi番目のニューロンの初期状態をそれぞれV
i(p)及びVi(q)で表わせば、これらのパターンの
相関量は次式で表わされる。
【0058】
【数5】
【0059】設定すべき一群のキーパターン中のすべて
のパターン対(p,q)についてこのような相関量を計
算し、次いでそれらの平均と分散を計算することができ
る。このようにして得られる平均と分散の値が種々に異
なる複数のキーパターン群を用意し、各キーパターン群
に各種の連想記憶アルゴリズムを適用して、結合荷重と
しきい値と出力パターンとを算定する。次いで、正しい
キーパターン及びそれらとは様々な程度で異なるパター
ンからなるテストパターン群を入力として与えて、出力
パターンを計算し、正しい応答が生じた率を対比データ
として記憶装置に格納する。設定すべきキーパターン群
が与えられると、それらのパターンの相関量の平均と分
散を計算し、それに最も近い条件の下で最高の正答率を
与えたアルゴリズムを選定して、実行する。出力パター
ンの計算に際して行なわれるニューロンの状態の反復更
新には、前述したような、状態変化量の圧縮を伴う同期
計算が適用できる。
【0060】
【発明の効果】本発明によれば、与えられる様々な多峰
性多変数関数に対してそれぞれに最も適したアルゴリズ
ムを、コンピュータにより予め選定し、そして実行する
ことができ、更に、アルゴリズムの実行に際しては、同
期計算によって計算時間を短縮しながら、しかも、確実
な収束が期待できる。したがって、一般に長時間を要す
る多峰性多変数関数の極小点又は極大点の探索を、極め
て能率良く行なうことができる。
【0061】加えて、対比データの収集のために諸アル
ゴリズムを適用する対象の変化を、統計量の変化によっ
て定めたので、比較的少量の、したがって作成も容易な
対比データによって、多種多様な関数のそれぞれに対す
る最適アルゴリズムを、的確に選定することができる。
【図面の簡単な説明】
【図1】本発明のシステム構成を示すブロックダイヤグ
ラム。
【図2】相互結合型ニュ−ラルネットワ−クの構成を表
わす模式図。
【図3】ニュ−ロンの機能を表わす模式図。
【図4】ニュ−ロンの出力関数を表わすグラフ。
【図5】荷重結合の統計量が変化したときのアルゴリズ
ムの性能比較を示すグラフ。
【図6】しきい値の統計量が変化したときのアルゴリズ
ムの性能比較を示すグラフ。
【図7】本発明によるアルゴリズムの性能比較の処理手
順と最適アルゴリズムの選定の処理手順とを示すPAD
図。
【図8】巡回セールスマン問題に適用した場合の諸アル
ゴリズムの性能比較データの例を示す図。
【図9】諸アルゴリズムにより得られた巡回セールスマ
ン問題の解の例を示す図。
【図10】本発明の状態更新方法の効果を示すグラフ。
【図11】本発明の状態更新方法と他の方法の比較デー
タを示す図。
【図12】本発明による状態更新方法の処理手順を示す
PAD図。
【符号の説明】
101・・・アルゴリズム対比データと実行プログラム
を格納した記憶装置 103・・・コンピュータ 701〜707・・・対比データ作成手順 708〜710・・・最適アルゴリズム選定手順 1201〜1207・・・反復更新手順

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】多峰性多変数関数の極小点又は極大点の探
    索のための複数のアルゴリズムを、関数を特徴付ける量
    の統計量の値を異にする複数の多峰性多変数関数のそれ
    ぞれに適用した結果の対比を示す、対比データが格納さ
    れた記憶装置と、与えられた多峰性多変数関数に最適な
    アルゴリズムを、この与えられた多峰性多変数関数を特
    徴付ける前記量の統計量の値と前記対比データとに基づ
    いて、前記複数のアルゴリズムの中から選択する処理装
    置とを備えた、最適アルゴリズム選定装置。
  2. 【請求項2】請求項1において、前記統計量は平均及び
    分散の少なくとも一方を含む、最適アルゴリズム選定装
    置。
  3. 【請求項3】請求項1又は2において、前記関数はニュ
    ーラルネットワークのエネルギー関数であり、関数を特
    徴付ける前記量はシナプスの結合荷重とニューロンのし
    きい値の少なくとも一方であり、前記対比データは算出
    された最小エネルギー値である、最適アルゴリズム選定
    装置。
  4. 【請求項4】請求項1又は2において、前記関数は非線
    形計画法における評価関数であり、関数を特徴付ける前
    記量は前記評価関数における係数の少なくとも一つであ
    り、前記対比データは算出された最小関数値又は最大関
    数値である、最適アルゴリズム選定装置。
  5. 【請求項5】請求項1又は2において、前記関数はニュ
    ーラルネットワークからなる連想記憶の特性を表わす関
    数であり、関数の特徴を表わす前記量は連想記憶の一群
    のキーパターンの相関量であり、前記対比データは連想
    記憶の応答の正誤率を示すデータである、最適アルゴリ
    ズム選定装置。
  6. 【請求項6】請求項1ないし4のいずれかに記載された
    装置において行なわれる方法であって、与えられた多峰
    性多変数関数を特徴付ける量の統計量の値を計算するス
    テップと、前記対比データを参照して、前記計算された
    統計量の値に最も近い統計量の値に対して最小又は最大
    の関数値を与えるアルゴリズムを選択するステップとを
    備えた、最適アルゴリズム選定方法。
  7. 【請求項7】請求項5に記載された装置において行なわ
    れる方法であって、与えられた一群のキーパターン中の
    諸パターン対間の相関量の値の平均及び分散の少なくと
    も一方の値を計算するステップと、前記対比データを参
    照して、前記計算された値に最も近い同種の量の値に対
    して最も良い正誤率を与えるアルゴリズムを選択するス
    テップとを備えた、最適アルゴリズム選定方法。
  8. 【請求項8】請求項6又は7において、前記アルゴリズ
    ム選択ステップは、実質上同一の関数値又は正誤率を与
    える複数のアルゴリズムが存在するときに、それらの中
    から計算時間が最短のアルゴリズムを選択する、最適ア
    ルゴリズム選定方法。
  9. 【請求項9】請求項1ないし5のいずれかにおいて、前
    記記憶装置には、更に前記複数のアルゴリズムのそれぞ
    れを実行するためのプログラムが格納されており、前記
    処理装置は、選択した最適アルゴリズムの実行のための
    プログラムを実行する、最適アルゴリズム実行装置。
  10. 【請求項10】請求項9に記載された装置において前記
    選択されたアルゴリズムを実行する方法であって、前記
    関数の各変数の値を反復して更新するステップが、前記
    選択されたアルゴリズムに従って仮の更新値を算出する
    ステップと、前記仮の更新値と更新前の値の差を所定の
    パラメータに従って圧縮して更新後の値を決定するステ
    ップと、前記算出ステップと決定ステップを適用して全
    変数の値を同期的に更新するステップを含む、最適アル
    ゴリズム実行方法。
  11. 【請求項11】請求項10において、前記圧縮のための
    パラメータは全反復を通じて一定に保たれる、最適アル
    ゴリズム実行方法。
  12. 【請求項12】請求項10において、前記圧縮のための
    パラメータを反復更新の回が進むにつれて一定の方向に
    変更するステップを含む、最適アルゴリズム実行方法。
JP3221526A 1991-09-02 1991-09-02 最適アルゴリズムの選定及び実行のための装置及び方法 Pending JPH0561848A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3221526A JPH0561848A (ja) 1991-09-02 1991-09-02 最適アルゴリズムの選定及び実行のための装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3221526A JPH0561848A (ja) 1991-09-02 1991-09-02 最適アルゴリズムの選定及び実行のための装置及び方法

Publications (1)

Publication Number Publication Date
JPH0561848A true JPH0561848A (ja) 1993-03-12

Family

ID=16768099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3221526A Pending JPH0561848A (ja) 1991-09-02 1991-09-02 最適アルゴリズムの選定及び実行のための装置及び方法

Country Status (1)

Country Link
JP (1) JPH0561848A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298277A (ja) * 1992-04-24 1993-11-12 Hitachi Ltd ニュ−ラルネット学習装置及び学習方法
JP2001188984A (ja) * 1999-12-28 2001-07-10 Hitachi Software Eng Co Ltd 最適配送計画立案方法およびシステム
GB2417349A (en) * 2002-07-19 2006-02-22 Hewlett Packard Development Co Digital-content extraction using multiple algorithms; adding and rating new ones
WO2021157124A1 (ja) * 2020-02-03 2021-08-12 望 窪田 解析装置、解析方法及び解析プログラム
JP2021189532A (ja) * 2020-05-26 2021-12-13 Necプラットフォームズ株式会社 パターン認識装置、学習方法及び学習プログラム
WO2022091408A1 (ja) * 2020-11-02 2022-05-05 日本電気株式会社 求解方法選択装置および方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298277A (ja) * 1992-04-24 1993-11-12 Hitachi Ltd ニュ−ラルネット学習装置及び学習方法
JP2001188984A (ja) * 1999-12-28 2001-07-10 Hitachi Software Eng Co Ltd 最適配送計画立案方法およびシステム
GB2417349A (en) * 2002-07-19 2006-02-22 Hewlett Packard Development Co Digital-content extraction using multiple algorithms; adding and rating new ones
WO2021157124A1 (ja) * 2020-02-03 2021-08-12 望 窪田 解析装置、解析方法及び解析プログラム
JP2021124805A (ja) * 2020-02-03 2021-08-30 望 窪田 解析装置、解析方法及び解析プログラム
JP2021189532A (ja) * 2020-05-26 2021-12-13 Necプラットフォームズ株式会社 パターン認識装置、学習方法及び学習プログラム
WO2022091408A1 (ja) * 2020-11-02 2022-05-05 日本電気株式会社 求解方法選択装置および方法

Similar Documents

Publication Publication Date Title
KR20250087488A (ko) 최적화된 신경망 기반 리튬 배터리 잔여 사용 수명 예측 방법 및 시스템
Kubota et al. Temporal information processing induced by quantum noise
CN111445008A (zh) 一种基于知识蒸馏的神经网络搜索方法及系统
CN112052947B (zh) 基于策略选项的分层强化学习方法和装置
CN113641907B (zh) 一种基于进化算法的超参数自适应深度推荐方法及装置
CN110968512B (zh) 软件质量评估方法、装置、设备及计算机可读存储介质
Liu et al. Multiobjective criteria for neural network structure selection and identification of nonlinear systems using genetic algorithms
CN116401756B (zh) 基于深度学习与数据增强的固体火箭发动机性能预测方法、预测系统、存储介质和设备
Eldebiky et al. Correctnet: Robustness enhancement of analog in-memory computing for neural networks by error suppression and compensation
Jaddi et al. Taguchi-based parameter designing of genetic algorithm for artificial neural network training
CN118428442A (zh) 一种强化学习模型的训练方法及装置
CN111260056B (zh) 一种网络模型蒸馏方法及装置
CN114638421A (zh) 一种发电机组备件需求的预测方法
Barschkis Exact and soft boundary conditions in Physics-Informed Neural Networks for the Variable Coefficient Poisson equation
CN109978138A (zh) 基于深度强化学习的结构可靠度抽样方法
JPH0561848A (ja) 最適アルゴリズムの選定及び実行のための装置及び方法
CN109697511A (zh) 数据推理方法、装置及计算机设备
CN112232565A (zh) 基于两阶段的时间序列预测方法、预测系统、终端及介质
CN120316020A (zh) 人机协同高实时性功能测试方法、设备、介质及程序产品
CN120524978A (zh) 一种基于混沌映射佳点集初始化和模拟退火的雪消融优化算法的频谱预测方法、程序、设备及存储介质
CN115879412B (zh) 一种基于迁移学习的版图层级电路图尺寸参数优化方法
JPH10134018A (ja) 法則発見方法と装置及び法則発見プログラムを格納した記憶媒体、及びニューラルネット学習方法と装置及びニューラルネット学習プログラムを格納した記憶媒体
CN115409173A (zh) 基于遗传算法的自动搜索剪枝方法和计算机可读存储介质
Liner et al. Improving neural network learning through dual variable learning rates
CN119862105B (zh) 时间感知即时软件缺陷预测方法、装置及可读存储介质