JPH11203254A - 共有プロセス制御装置及びプログラムを記録した機械読み取り可能な記録媒体 - Google Patents
共有プロセス制御装置及びプログラムを記録した機械読み取り可能な記録媒体Info
- Publication number
- JPH11203254A JPH11203254A JP10017936A JP1793698A JPH11203254A JP H11203254 A JPH11203254 A JP H11203254A JP 10017936 A JP10017936 A JP 10017936A JP 1793698 A JP1793698 A JP 1793698A JP H11203254 A JPH11203254 A JP H11203254A
- Authority
- JP
- Japan
- Prior art keywords
- node
- shared
- shared process
- service request
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/0703—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
- G06F11/0706—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment
- G06F11/0715—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation the processing taking place on a specific hardware platform or in a specific software environment in a system implementing multitasking
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/07—Responding to the occurrence of a fault, e.g. fault tolerance
- G06F11/0703—Error or fault processing not based on redundancy, i.e. by taking additional measures to deal with the error or fault not making use of redundancy in operation, in hardware, or in data representation
- G06F11/0793—Remedial or corrective actions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Software Systems (AREA)
- Hardware Redundancy (AREA)
- Multi Processors (AREA)
- Control By Computers (AREA)
Abstract
(57)【要約】
【課題】 複数のノードから構成される計算機システム
に於いて、サービスを提供するために余り資源を使用せ
ずに、且つ各ノードが自ノードが障害にならない限りサ
ービスの提供を受けられるようにする。 【解決手段】 各ノード101-1 〜101-4 からアクセス可
能な共有メモリ102 上にサービスを提供する共有プロセ
ス108-1 〜108-n と、各共有プロセス108-1 〜108-n の
制御構造体及びノードフラグを含む共有プロセス制御テ
ーブル107 とを配置する。共有プロセスディスパッチャ
105-1 〜105-4 は、AP103-1 〜103-4 から共有プロセ
ス108-1 〜108-n に対するサービス要求が発行される
と、共有プロセス制御テーブル107 中のノードフラグに
基づいて、共有プロセスが他ノードによって占有されて
いると判断した場合は上記サービス要求をウエイトさ
せ、占有されていないと判断した場合は共有プロセスに
サービス要求を処理させる。
に於いて、サービスを提供するために余り資源を使用せ
ずに、且つ各ノードが自ノードが障害にならない限りサ
ービスの提供を受けられるようにする。 【解決手段】 各ノード101-1 〜101-4 からアクセス可
能な共有メモリ102 上にサービスを提供する共有プロセ
ス108-1 〜108-n と、各共有プロセス108-1 〜108-n の
制御構造体及びノードフラグを含む共有プロセス制御テ
ーブル107 とを配置する。共有プロセスディスパッチャ
105-1 〜105-4 は、AP103-1 〜103-4 から共有プロセ
ス108-1 〜108-n に対するサービス要求が発行される
と、共有プロセス制御テーブル107 中のノードフラグに
基づいて、共有プロセスが他ノードによって占有されて
いると判断した場合は上記サービス要求をウエイトさ
せ、占有されていないと判断した場合は共有プロセスに
サービス要求を処理させる。
Description
【0001】
【発明の属する技術分野】本発明は、複数のノードによ
って構成された計算機システムのプロセス制御に関し、
特に、複数のノードでプロセスを共有する技術に関す
る。
って構成された計算機システムのプロセス制御に関し、
特に、複数のノードでプロセスを共有する技術に関す
る。
【0002】
【従来の技術】従来、複数のノードによって構成された
計算機システムでは、各ノードに於いて同じサービスが
受けられるようにするため、上記サービスを実現するた
めの常駐プロセス(例えば、各種サーバプロセス等)
を、特定のノードで固定的に動作するように設定してい
る。そして、上記特定のノードは、ノード間通信機能に
よって他のノードからのサービス要求を受け取ると、そ
のサービス要求に従ったサービスを実行し、必要に応じ
て結果を要求元のノードに返すようにしている(例え
ば、「ACOSソフトウェア,ACOS−4/XVP
PX,JES−PX解説および利用の手引」,P3〜P
16,P39〜P41,1996年9月第6版,日本電
気株式会社)。
計算機システムでは、各ノードに於いて同じサービスが
受けられるようにするため、上記サービスを実現するた
めの常駐プロセス(例えば、各種サーバプロセス等)
を、特定のノードで固定的に動作するように設定してい
る。そして、上記特定のノードは、ノード間通信機能に
よって他のノードからのサービス要求を受け取ると、そ
のサービス要求に従ったサービスを実行し、必要に応じ
て結果を要求元のノードに返すようにしている(例え
ば、「ACOSソフトウェア,ACOS−4/XVP
PX,JES−PX解説および利用の手引」,P3〜P
16,P39〜P41,1996年9月第6版,日本電
気株式会社)。
【0003】
【発明が解決しようとする課題】上記した従来技術で
は、常駐プロセスが動作するノードが障害になった場
合、サービスが停止してしまうという問題点がある。そ
の理由は、常駐プロセスが動作中のノードが障害になっ
た場合、常駐プロセスは停止を余儀なくされるからであ
る。尚、上記した方式以外にも、同一のプログラムを各
ノード間で同時に起動しておき、資源に対する排他を行
った上で、各ノード上でサービスを実行するということ
も従来行われているが、この方式では、各ノードに於い
て同一プログラムを起動するため冗長な資源が必要にな
るという問題がある。
は、常駐プロセスが動作するノードが障害になった場
合、サービスが停止してしまうという問題点がある。そ
の理由は、常駐プロセスが動作中のノードが障害になっ
た場合、常駐プロセスは停止を余儀なくされるからであ
る。尚、上記した方式以外にも、同一のプログラムを各
ノード間で同時に起動しておき、資源に対する排他を行
った上で、各ノード上でサービスを実行するということ
も従来行われているが、この方式では、各ノードに於い
て同一プログラムを起動するため冗長な資源が必要にな
るという問題がある。
【0004】そこで、本発明の目的は、サービスを提供
するために余り資源を使用せず、且つ各ノードが自ノー
ドが障害にならない限りサービスの提供を受けられるよ
うにすることにある。
するために余り資源を使用せず、且つ各ノードが自ノー
ドが障害にならない限りサービスの提供を受けられるよ
うにすることにある。
【0005】
【課題を解決するための手段】本発明は上記目的を達成
するため、複数のノードから構成される計算機システム
に於いて、共有プロセスが配置され、且つ前記共有プロ
セスの制御構造体と前記共有プロセスを占有しているノ
ードを表示するノードフラグとを含む共有プロセス制御
テーブルが格納される、前記各ノードからアクセス可能
な共有メモリを備え、前記各ノードは、自ノード内に要
求元から前記共有プロセスに対するサービス要求が発行
された時、前記ノードフラグに基づいて前記共有プロセ
スが他ノードによって占有されているか否かを判断し、
他ノードによって占有されている場合は、前記サービス
要求をウエイトさせ、他ノードによって占有されていな
い場合は、前記ノードフラグに自ノードが共有プロセス
を占有していることを表示した後、前記共有プロセスに
前記サービス要求を処理させる共有プロセスディスパッ
チャと、他ノードに障害が発生した時、前記他ノードが
前記共有プロセスを占有している場合は、前記ノードフ
ラグをクリアすると共に前記制御構造体をサービス要求
を受け付ける状態にするノード障害リカバリ手段を備え
ている。
するため、複数のノードから構成される計算機システム
に於いて、共有プロセスが配置され、且つ前記共有プロ
セスの制御構造体と前記共有プロセスを占有しているノ
ードを表示するノードフラグとを含む共有プロセス制御
テーブルが格納される、前記各ノードからアクセス可能
な共有メモリを備え、前記各ノードは、自ノード内に要
求元から前記共有プロセスに対するサービス要求が発行
された時、前記ノードフラグに基づいて前記共有プロセ
スが他ノードによって占有されているか否かを判断し、
他ノードによって占有されている場合は、前記サービス
要求をウエイトさせ、他ノードによって占有されていな
い場合は、前記ノードフラグに自ノードが共有プロセス
を占有していることを表示した後、前記共有プロセスに
前記サービス要求を処理させる共有プロセスディスパッ
チャと、他ノードに障害が発生した時、前記他ノードが
前記共有プロセスを占有している場合は、前記ノードフ
ラグをクリアすると共に前記制御構造体をサービス要求
を受け付ける状態にするノード障害リカバリ手段を備え
ている。
【0006】この構成に於いては、自ノード内の要求元
から共有プロセスに対するサービス要求が発行される
と、共有プロセスディスパッチャが、共有メモリ上のノ
ードフラグに基づいて、共有プロセスが他ノードによっ
て占有されているか否かを判断する。そして、他ノード
によって占有されていると判断した場合は、上記サービ
ス要求をウエイトさせ、他ノードによって占有されてい
ないと判断した場合は共有プロセスにサービス要求を処
理させる。また、他ノードに障害が発生した時、共有プ
ロセスが障害発生ノードに占有されていれば、ノード障
害リカバリ手段が、ノードフラグをクリアすると共に制
御構造体をサービス要求を受け付ける状態にする。
から共有プロセスに対するサービス要求が発行される
と、共有プロセスディスパッチャが、共有メモリ上のノ
ードフラグに基づいて、共有プロセスが他ノードによっ
て占有されているか否かを判断する。そして、他ノード
によって占有されていると判断した場合は、上記サービ
ス要求をウエイトさせ、他ノードによって占有されてい
ないと判断した場合は共有プロセスにサービス要求を処
理させる。また、他ノードに障害が発生した時、共有プ
ロセスが障害発生ノードに占有されていれば、ノード障
害リカバリ手段が、ノードフラグをクリアすると共に制
御構造体をサービス要求を受け付ける状態にする。
【0007】また、本発明は、サービス要求をウエイト
させているノードが、共有プロセス開放後直ちに共有プ
ロセスを占有するための処理を行えるようにするため、
前記各共有プロセスディスパッチャは、前記共有プロセ
スが自ノードのサービス要求に従った処理を完了した
時、前記ノードフラグをクリアし、前記制御構造体をサ
ービス要求を受け付ける状態にすると共に、他ノードの
共有プロセスディスパッチャに対して共有プロセス開放
通知を行う構成を備えている。
させているノードが、共有プロセス開放後直ちに共有プ
ロセスを占有するための処理を行えるようにするため、
前記各共有プロセスディスパッチャは、前記共有プロセ
スが自ノードのサービス要求に従った処理を完了した
時、前記ノードフラグをクリアし、前記制御構造体をサ
ービス要求を受け付ける状態にすると共に、他ノードの
共有プロセスディスパッチャに対して共有プロセス開放
通知を行う構成を備えている。
【0008】この構成に於いては、各共有プロセスディ
スパッチャは、共有プロセスが自ノードのサービス要求
に従った処理を完了した時、ノードフラグをクリアし、
制御構造体をサービス要求を受け付ける状態にすると共
に、他ノードの共有プロセスディスパッチャに対して共
有プロセス開放通知を行う。
スパッチャは、共有プロセスが自ノードのサービス要求
に従った処理を完了した時、ノードフラグをクリアし、
制御構造体をサービス要求を受け付ける状態にすると共
に、他ノードの共有プロセスディスパッチャに対して共
有プロセス開放通知を行う。
【0009】
【発明の実施の形態】次に本発明の実施の形態について
図面を参照して詳細に説明する。
図面を参照して詳細に説明する。
【0010】図1は本発明の実施の形態の一例を示すブ
ロック図であり、個々の計算機を示すノード101−1
〜101−4と、各ノード101−1〜101−4から
アクセス可能な共有メモリ102と、記録媒体109−
1〜109−4とから構成されている。
ロック図であり、個々の計算機を示すノード101−1
〜101−4と、各ノード101−1〜101−4から
アクセス可能な共有メモリ102と、記録媒体109−
1〜109−4とから構成されている。
【0011】共有メモリ102には、各ノード101−
1〜101−4にサービスを提供する共有プロセス10
8−1〜108−nと、共有プロセス108−1〜10
8−nの実行制御に用いるデータが格納された共有プロ
セス制御テーブル107とが配置されている。
1〜101−4にサービスを提供する共有プロセス10
8−1〜108−nと、共有プロセス108−1〜10
8−nの実行制御に用いるデータが格納された共有プロ
セス制御テーブル107とが配置されている。
【0012】各ノード101−1〜101−4には、共
有プロセス108−1〜108−nに対するサービス要
求を発行するアプリケーションプログラム103−1〜
103−4と、プロセスディスパッチャ104−1〜1
04−4と、プロセスディスパッチャ104−1〜10
4−4と共同して共有プロセス108−1〜108−n
の実行を制御する共有プロセスディスパッチャ105−
1〜105−4と、ノード障害リカバリ手段106−1
〜106−4とが含まれている。また、各記録媒体10
9−1〜109−4には、共有プロセス制御装置を実現
するためのプログラムが記録されている。このプログラ
ムは、ノード101−1〜101−4によって読み取ら
れ、ノード101−1〜101−4の動作を制御するこ
とでノード101−1〜ノード101−4上にプロセス
ディスパッチャ104−1〜104−4と、共有プロセ
スディスパッチャ105−1〜105−4と、ノード障
害リカバリ手段106−1〜106−4とを実現する。
有プロセス108−1〜108−nに対するサービス要
求を発行するアプリケーションプログラム103−1〜
103−4と、プロセスディスパッチャ104−1〜1
04−4と、プロセスディスパッチャ104−1〜10
4−4と共同して共有プロセス108−1〜108−n
の実行を制御する共有プロセスディスパッチャ105−
1〜105−4と、ノード障害リカバリ手段106−1
〜106−4とが含まれている。また、各記録媒体10
9−1〜109−4には、共有プロセス制御装置を実現
するためのプログラムが記録されている。このプログラ
ムは、ノード101−1〜101−4によって読み取ら
れ、ノード101−1〜101−4の動作を制御するこ
とでノード101−1〜ノード101−4上にプロセス
ディスパッチャ104−1〜104−4と、共有プロセ
スディスパッチャ105−1〜105−4と、ノード障
害リカバリ手段106−1〜106−4とを実現する。
【0013】図2は共有プロセス制御テーブル107の
一例を示した図である。共有プロセス制御テーブル10
7は、複数の共有プロセス制御エントリ201−1〜2
01−nから構成され、共有プロセス制御エントリ20
1−1〜201−nは、それぞれ共有プロセス108−
1〜108−nと1対1に対応している。
一例を示した図である。共有プロセス制御テーブル10
7は、複数の共有プロセス制御エントリ201−1〜2
01−nから構成され、共有プロセス制御エントリ20
1−1〜201−nは、それぞれ共有プロセス108−
1〜108−nと1対1に対応している。
【0014】共有プロセス制御エントリ201−1〜2
01−nには、それぞれ対応する共有プロセス108−
1〜108−nの制御構造体(プロセスコントロールブ
ロック)202−1〜202−nと、対応する共有プロ
セス108−1〜108−nを占有しているノードを表
示するノードフラグ203−1〜203−nとが存在す
る。
01−nには、それぞれ対応する共有プロセス108−
1〜108−nの制御構造体(プロセスコントロールブ
ロック)202−1〜202−nと、対応する共有プロ
セス108−1〜108−nを占有しているノードを表
示するノードフラグ203−1〜203−nとが存在す
る。
【0015】次に本実施の形態の動作を説明する。
【0016】今、例えば、ノード101−1内のアプリ
ケーションプログラム103−1が共有プロセス108
−i(1≦i≦n)に対するサービス要求を発行したと
する。
ケーションプログラム103−1が共有プロセス108
−i(1≦i≦n)に対するサービス要求を発行したと
する。
【0017】プロセスディスパッチャ104−1は、ア
プリケーションプログラム103−1からサービス要求
が発行されると、そのサービス要求が共有プロセス10
8−iで処理されるべきものなのか否かを判断する。
プリケーションプログラム103−1からサービス要求
が発行されると、そのサービス要求が共有プロセス10
8−iで処理されるべきものなのか否かを判断する。
【0018】そして、共有プロセス108−iで処理さ
れるべきものでないと判断した場合は、プロセスディス
パッチャ104−1は、従来から行われている処理と同
様の処理を行う。これに対して、共有プロセス108−
iで処理されるべきものであると判断した場合は、アプ
リケーションプログラム103−1が発行したサービス
要求を共有プロセスディスパッチャ105−1に渡す。
れるべきものでないと判断した場合は、プロセスディス
パッチャ104−1は、従来から行われている処理と同
様の処理を行う。これに対して、共有プロセス108−
iで処理されるべきものであると判断した場合は、アプ
リケーションプログラム103−1が発行したサービス
要求を共有プロセスディスパッチャ105−1に渡す。
【0019】これにより、共有プロセスディスパッチャ
105−1は、図3の流れ図に示すように、共有プロセ
ス制御テーブル107をサーチし、サービス要求を処理
する共有プロセス108−iに対応する共有プロセス制
御エントリ201−iを探し出す(S301)。
105−1は、図3の流れ図に示すように、共有プロセ
ス制御テーブル107をサーチし、サービス要求を処理
する共有プロセス108−iに対応する共有プロセス制
御エントリ201−iを探し出す(S301)。
【0020】その後、共有プロセスディスパッチャ10
5−1は、ノード間でインディビジブルにテスト&セッ
ト動作が可能な命令(1命令で値のチェックと値のセッ
トが可能な命令)によって、共有プロセス制御エントリ
201−i中のノードフラグ203−iに対してテスト
&セットを実施する(S302)。尚、セットする値
は、自ノードのノード識別子である。
5−1は、ノード間でインディビジブルにテスト&セッ
ト動作が可能な命令(1命令で値のチェックと値のセッ
トが可能な命令)によって、共有プロセス制御エントリ
201−i中のノードフラグ203−iに対してテスト
&セットを実施する(S302)。尚、セットする値
は、自ノードのノード識別子である。
【0021】共有プロセス108−iが他のノード10
1−2〜101−4によって占有されている場合は、テ
スト&セットが失敗するので、共有プロセスディスパッ
チャ105−1は、サービス要求をウエイトさせる(S
303)。
1−2〜101−4によって占有されている場合は、テ
スト&セットが失敗するので、共有プロセスディスパッ
チャ105−1は、サービス要求をウエイトさせる(S
303)。
【0022】これに対して共有プロセス108−iが他
のノード101−2〜101−4によって占有されてい
ない場合は、テスト&セットが成功するので、ノードフ
ラグ203−iは、共有プロセス108−iがノード1
01−1によって占有されていることを表示することに
なる。
のノード101−2〜101−4によって占有されてい
ない場合は、テスト&セットが成功するので、ノードフ
ラグ203−iは、共有プロセス108−iがノード1
01−1によって占有されていることを表示することに
なる。
【0023】ノードフラグ203−iに対するテスト&
セットが成功すると、共有プロセスディスパッチャ10
5−1は、制御構造体202−iを示す情報をプロセス
ディスパッチャ104−1に通知する(S304)。こ
れにより、プロセスディスパッチャ104−1は、制御
構造体202−iに対応する共有プロセス108−iも
ディスパッチの対象にして共有プロセス108−iの実
行を制御し、共有プロセス108−iに要求されたサー
ビスを処理させる。尚、ノード101−1のCPU(図
示せず)は、共有プロセス108−iを共有メモリ10
2上で実行する。
セットが成功すると、共有プロセスディスパッチャ10
5−1は、制御構造体202−iを示す情報をプロセス
ディスパッチャ104−1に通知する(S304)。こ
れにより、プロセスディスパッチャ104−1は、制御
構造体202−iに対応する共有プロセス108−iも
ディスパッチの対象にして共有プロセス108−iの実
行を制御し、共有プロセス108−iに要求されたサー
ビスを処理させる。尚、ノード101−1のCPU(図
示せず)は、共有プロセス108−iを共有メモリ10
2上で実行する。
【0024】共有プロセス108−iが、要求されたサ
ービスを完了すると、共有プロセスディスパッチャ10
5−1は、共有プロセス制御エントリ201−i内のノ
ードフラグ203−iをクリアすると共に制御構造体2
02−iの状態をサービス要求の待ち受け状態に戻す
(S305)。その後、共有プロセスディスパッチャ1
05−1は、他のノード101−2〜101−4に対
し、共有メモリ102を介して共有プロセス108−i
の開放を通知する(S306)。これにより、ノード1
01−2〜101−4内の共有プロセスディスパッチャ
105−2〜105−4では、共有プロセス108−i
に対するサービス要求をウエイトさせていた場合、再度
そのサービス要求の実行を試みる。
ービスを完了すると、共有プロセスディスパッチャ10
5−1は、共有プロセス制御エントリ201−i内のノ
ードフラグ203−iをクリアすると共に制御構造体2
02−iの状態をサービス要求の待ち受け状態に戻す
(S305)。その後、共有プロセスディスパッチャ1
05−1は、他のノード101−2〜101−4に対
し、共有メモリ102を介して共有プロセス108−i
の開放を通知する(S306)。これにより、ノード1
01−2〜101−4内の共有プロセスディスパッチャ
105−2〜105−4では、共有プロセス108−i
に対するサービス要求をウエイトさせていた場合、再度
そのサービス要求の実行を試みる。
【0025】次に、ノード101−1が共有プロセス1
08−j(1≦j≦n)を占有している時に、ノード1
01−1に障害が発生し、ノード101−1に於いて共
有プロセス108−jの継続実行が不可能になったとき
の動作を説明する。
08−j(1≦j≦n)を占有している時に、ノード1
01−1に障害が発生し、ノード101−1に於いて共
有プロセス108−jの継続実行が不可能になったとき
の動作を説明する。
【0026】各ノード101−1〜101−4内のノー
ド障害リカバリ手段106−1〜106−4は、互いに
他ノードの状態を監視しており、他ノードに障害が発生
したことを検出すると、図4の流れ図に示す処理を行
う。この例の場合は、ノード101−1に障害が発生し
たので、ノード101−2〜101−4内のノード障害
リカバリ手段106−2〜106−4が図4の流れ図に
示す処理を行うことになる。
ド障害リカバリ手段106−1〜106−4は、互いに
他ノードの状態を監視しており、他ノードに障害が発生
したことを検出すると、図4の流れ図に示す処理を行
う。この例の場合は、ノード101−1に障害が発生し
たので、ノード101−2〜101−4内のノード障害
リカバリ手段106−2〜106−4が図4の流れ図に
示す処理を行うことになる。
【0027】ノード障害リカバリ手段106−2〜10
6−4は、ノード101−1に障害が発生したことを検
出すると、調停を行い、ノード101−1に対するリカ
バリを行うノード障害リカバリ手段を決定する(S40
1)。リカバリを行うノード障害リカバリ手段の決定方
法は、任意のものとすることができるが、例えば、各ノ
ード障害リカバリ手段106−1〜106−4に優先度
を付与しておき、正常なノードのノード障害リカバリ手
段の内の、最も優先度の高いノード障害リカバリ手段
を、リカバリを行うノード障害リカバリ手段にするとい
う方法を採ることができる。
6−4は、ノード101−1に障害が発生したことを検
出すると、調停を行い、ノード101−1に対するリカ
バリを行うノード障害リカバリ手段を決定する(S40
1)。リカバリを行うノード障害リカバリ手段の決定方
法は、任意のものとすることができるが、例えば、各ノ
ード障害リカバリ手段106−1〜106−4に優先度
を付与しておき、正常なノードのノード障害リカバリ手
段の内の、最も優先度の高いノード障害リカバリ手段
を、リカバリを行うノード障害リカバリ手段にするとい
う方法を採ることができる。
【0028】今、例えば、S401に於いて、ノード障
害リカバリ手段106−4でリカバリを行うと決定され
たとすると、他のノード障害リカバリ手段106−2,
106−3は、S402の判断結果がNOとなるので、
その処理を終了する。これに対して、ノード障害リカバ
リ手段106−4は、S402の判断結果がYESとな
るので、共有プロセス制御テーブル107を検索し、障
害ノード101−1が占有している共有プロセスが存在
するか否かを調べる(S403,S404)。
害リカバリ手段106−4でリカバリを行うと決定され
たとすると、他のノード障害リカバリ手段106−2,
106−3は、S402の判断結果がNOとなるので、
その処理を終了する。これに対して、ノード障害リカバ
リ手段106−4は、S402の判断結果がYESとな
るので、共有プロセス制御テーブル107を検索し、障
害ノード101−1が占有している共有プロセスが存在
するか否かを調べる(S403,S404)。
【0029】そして、障害ノード101−1によって占
有されている共有プロセスが存在しない場合(S404
がNO)は、ノード障害リカバリ手段106−4は、そ
の処理を終了する。これに対して、障害ノード101−
1によって占有されている共有プロセスが存在する場合
は、S405の処理を行う。
有されている共有プロセスが存在しない場合(S404
がNO)は、ノード障害リカバリ手段106−4は、そ
の処理を終了する。これに対して、障害ノード101−
1によって占有されている共有プロセスが存在する場合
は、S405の処理を行う。
【0030】この例の場合、障害ノード101−1は、
共有プロセス108−jを占有しているので、ノード障
害リカバリ手段106−4は、共有プロセス108−j
に対応する制御構造体202−jの状態を、サービス要
求待ち受け時の状態に戻すと共にノードフラグ203−
jをクリアする(S405,S406)。その後、ノー
ド障害リカバリ手段106−4は、正常なノード101
−2〜101−4上の共有プロセスディスパッチャ10
6−2〜106−4に、共有プロセス108−jがサー
ビス要求受け付け可能になったことを通知する(S40
7)。これにより、ノード101−2〜101−4内の
共有プロセスディスパッチャ105−2〜105−4
は、共有プロセス108−jに対するサービス要求をウ
エイトさせていた場合、再度そのサービス要求の実行を
試みる。
共有プロセス108−jを占有しているので、ノード障
害リカバリ手段106−4は、共有プロセス108−j
に対応する制御構造体202−jの状態を、サービス要
求待ち受け時の状態に戻すと共にノードフラグ203−
jをクリアする(S405,S406)。その後、ノー
ド障害リカバリ手段106−4は、正常なノード101
−2〜101−4上の共有プロセスディスパッチャ10
6−2〜106−4に、共有プロセス108−jがサー
ビス要求受け付け可能になったことを通知する(S40
7)。これにより、ノード101−2〜101−4内の
共有プロセスディスパッチャ105−2〜105−4
は、共有プロセス108−jに対するサービス要求をウ
エイトさせていた場合、再度そのサービス要求の実行を
試みる。
【0031】尚、上記した実施の形態では、ノードフラ
グに対してテスト&セットを実施することにより、排他
制御を行うようにしたが、別途、ノード間セマフォを用
意することで、同様な排他制御を行うことが可能であ
る。
グに対してテスト&セットを実施することにより、排他
制御を行うようにしたが、別途、ノード間セマフォを用
意することで、同様な排他制御を行うことが可能であ
る。
【0032】
【実施例】次に、本発明の実施例について図面を参照し
て詳細に説明する。
て詳細に説明する。
【0033】図5を参照すると、本実施例は、複数のノ
ード101−1〜101−4と、共有メモリ102とか
ら構成されている。共有メモリ102上には、共有プロ
セス制御テーブル107と、共有プロセスの1つである
wwwサーバ408が存在する。各ノード101−1〜
101−4は、wwwサーバ408に対するサービス要
求を発行するアプリケーションプログラムであるwww
ブラウザ403−1〜403−4と、プロセスディスパ
ッチャ104−1〜104−4と、共有プロセスディス
パッチャ105−1〜105−4と、ノード障害リカバ
リ手段106−1〜106−4とを備えている。
ード101−1〜101−4と、共有メモリ102とか
ら構成されている。共有メモリ102上には、共有プロ
セス制御テーブル107と、共有プロセスの1つである
wwwサーバ408が存在する。各ノード101−1〜
101−4は、wwwサーバ408に対するサービス要
求を発行するアプリケーションプログラムであるwww
ブラウザ403−1〜403−4と、プロセスディスパ
ッチャ104−1〜104−4と、共有プロセスディス
パッチャ105−1〜105−4と、ノード障害リカバ
リ手段106−1〜106−4とを備えている。
【0034】次に本実施例の動作を説明する。
【0035】今、例えば、ノード101−1内のwww
ブラウザ403−1がwwwサーバ408に対するサー
ビス要求を発行したとする。
ブラウザ403−1がwwwサーバ408に対するサー
ビス要求を発行したとする。
【0036】プロセスディスパッチャ104−1は、w
wwブラウザ403−1からサービス要求が発行される
と、そのサービス要求が共有プロセスで処理されるべき
ものなのか否かを判断する。
wwブラウザ403−1からサービス要求が発行される
と、そのサービス要求が共有プロセスで処理されるべき
ものなのか否かを判断する。
【0037】そして、共有プロセスで処理されるべきも
のでないと判断した場合は、プロセスディスパッチャ1
04−1は、従来から行われている処理と同様の処理を
行う。これに対して、共有プロセスで処理されるべきも
のであると判断した場合は、wwwブラウザ403−1
が発行したサービス要求を共有プロセスディスパッチャ
105−1に渡す。
のでないと判断した場合は、プロセスディスパッチャ1
04−1は、従来から行われている処理と同様の処理を
行う。これに対して、共有プロセスで処理されるべきも
のであると判断した場合は、wwwブラウザ403−1
が発行したサービス要求を共有プロセスディスパッチャ
105−1に渡す。
【0038】これにより、共有プロセスディスパッチャ
105−1は、図3の流れ図に示すように、共有プロセ
ス制御テーブル107をサーチし、サービス要求を処理
するwwwサーバ408に対応する共有プロセス制御エ
ントリを探し出す(S301)。
105−1は、図3の流れ図に示すように、共有プロセ
ス制御テーブル107をサーチし、サービス要求を処理
するwwwサーバ408に対応する共有プロセス制御エ
ントリを探し出す(S301)。
【0039】その後、共有プロセスディスパッチャ10
5−1は、wwwサーバ408に対応するノードフラグ
に対してテスト&セットを実施する(S302)。
5−1は、wwwサーバ408に対応するノードフラグ
に対してテスト&セットを実施する(S302)。
【0040】wwwサーバ408が他のノード101−
2〜101−4によって占有されている場合は、テスト
&セットが失敗するので、共有プロセスディスパッチャ
105−1は、サービス要求をウエイトさせる(S30
3)。
2〜101−4によって占有されている場合は、テスト
&セットが失敗するので、共有プロセスディスパッチャ
105−1は、サービス要求をウエイトさせる(S30
3)。
【0041】これに対してwwwサーバ408が他のノ
ード101−2〜101−4によって占有されていない
場合は、テスト&セットが成功するので、wwwサーバ
408はノード101−1によって占有されることにな
る。
ード101−2〜101−4によって占有されていない
場合は、テスト&セットが成功するので、wwwサーバ
408はノード101−1によって占有されることにな
る。
【0042】wwwサーバ408に対応するノードフラ
グに対するテスト&セットが成功すると、共有プロセス
ディスパッチャ105−1は、wwwサーバ408に対
応する制御構造体を示す情報をプロセスディスパッチャ
104−1に通知する(S304)。これにより、プロ
セスディスパッチャ104−1は、wwwサーバ408
もディスパッチの対象にしてwwwサーバ408の実行
を制御し、wwwサーバ408に要求されたサービスを
処理させる。
グに対するテスト&セットが成功すると、共有プロセス
ディスパッチャ105−1は、wwwサーバ408に対
応する制御構造体を示す情報をプロセスディスパッチャ
104−1に通知する(S304)。これにより、プロ
セスディスパッチャ104−1は、wwwサーバ408
もディスパッチの対象にしてwwwサーバ408の実行
を制御し、wwwサーバ408に要求されたサービスを
処理させる。
【0043】wwwサーバ408が、要求されたサービ
スを完了すると、共有プロセスディスパッチャ105−
1は、wwwサーバ408に対応するノードフラグクリ
アすると共にwwwサーバ408に対応する制御構造体
状態をサービス要求の待ち受け状態に戻す(S30
5)。その後、共有プロセスディスパッチャ105−1
は、他のノード101−2〜101−4に対し、共有メ
モリ102を介してwwwサーバ408の開放を通知す
る(S306)。これにより、ノード101−2〜10
1−4では、wwwサーバ408に対するサービス要求
をウエイトさせていた場合、共有プロセスディスパッチ
ャ105−2〜105−4が再度そのサービス要求の実
行を試みる。
スを完了すると、共有プロセスディスパッチャ105−
1は、wwwサーバ408に対応するノードフラグクリ
アすると共にwwwサーバ408に対応する制御構造体
状態をサービス要求の待ち受け状態に戻す(S30
5)。その後、共有プロセスディスパッチャ105−1
は、他のノード101−2〜101−4に対し、共有メ
モリ102を介してwwwサーバ408の開放を通知す
る(S306)。これにより、ノード101−2〜10
1−4では、wwwサーバ408に対するサービス要求
をウエイトさせていた場合、共有プロセスディスパッチ
ャ105−2〜105−4が再度そのサービス要求の実
行を試みる。
【0044】次に、ノード101−1が共有プロセスで
あるwwwサーバ408を占有している時に、ノード1
01−1に障害が発生し、ノード101−1に於いてw
wwサーバ408の継続実行が不可能になったときの動
作を説明する。
あるwwwサーバ408を占有している時に、ノード1
01−1に障害が発生し、ノード101−1に於いてw
wwサーバ408の継続実行が不可能になったときの動
作を説明する。
【0045】各ノード101−1〜101−4内のノー
ド障害リカバリ手段106−1〜106−4は、互いに
他ノードの状態を監視しており、他ノードに障害が発生
したことを検出すると、図4の流れ図に示す処理を行
う。この例の場合は、ノード101−1に障害が発生し
たので、ノード101−2〜101−4内のノード障害
リカバリ手段106−2〜106−4が図4の流れ図に
示す処理を行うことになる。
ド障害リカバリ手段106−1〜106−4は、互いに
他ノードの状態を監視しており、他ノードに障害が発生
したことを検出すると、図4の流れ図に示す処理を行
う。この例の場合は、ノード101−1に障害が発生し
たので、ノード101−2〜101−4内のノード障害
リカバリ手段106−2〜106−4が図4の流れ図に
示す処理を行うことになる。
【0046】ノード障害リカバリ手段106−2〜10
6−4は、ノード101−1に障害が発生したことを検
出すると、調停を行い、ノード101−1に対するリカ
バリを行うノード障害リカバリ手段を決定する(S40
1)。
6−4は、ノード101−1に障害が発生したことを検
出すると、調停を行い、ノード101−1に対するリカ
バリを行うノード障害リカバリ手段を決定する(S40
1)。
【0047】今、例えば、S401に於いて、ノード障
害リカバリ手段106−4でリカバリを行うと決定され
たとすると、他のノード障害リカバリ手段106−2,
106−3は、S402の判断結果がNOとなるので、
その処理を終了する。これに対して、ノード障害リカバ
リ手段106−4は、S402の判断結果がYESとな
るので、共有プロセス制御テーブル107を検索し、障
害ノード101−1が占有している共有プロセスが存在
するか否かを調べる(S403,S404)。
害リカバリ手段106−4でリカバリを行うと決定され
たとすると、他のノード障害リカバリ手段106−2,
106−3は、S402の判断結果がNOとなるので、
その処理を終了する。これに対して、ノード障害リカバ
リ手段106−4は、S402の判断結果がYESとな
るので、共有プロセス制御テーブル107を検索し、障
害ノード101−1が占有している共有プロセスが存在
するか否かを調べる(S403,S404)。
【0048】そして、障害ノード101−1が占有中の
共有プロセスが存在しない場合(S404がNO)は、
ノード障害リカバリ手段106−4は、その処理を終了
する。これに対して、障害ノード101−1が占有中の
共有プロセスが存在する場合は、S405の処理を行
う。
共有プロセスが存在しない場合(S404がNO)は、
ノード障害リカバリ手段106−4は、その処理を終了
する。これに対して、障害ノード101−1が占有中の
共有プロセスが存在する場合は、S405の処理を行
う。
【0049】この例の場合、障害ノード101−1は、
共有プロセスであるwwwサーバ408を占有している
ので、ノード障害リカバリ手段106−4は、wwwサ
ーバ408に対応する制御構造体の状態をサービス要求
待ち受け時の状態に戻すと共にwwwサーバ408に対
応するノードフラグをクリアする(S405,S40
6)。その後、ノード障害リカバリ手段106−4は、
正常なノード101−2〜101−4上の共有プロセス
ディスパッチャ106−2〜106−4に、wwwサー
バ408がサービス要求受け付け可能になったことを通
知する(S407)。これにより、ノード101−2〜
101−4では、wwwサーバ408に対するサービス
要求をウエイトさせていた場合、共有プロセスディスパ
ッチャ105−2〜105−4が再度そのサービス要求
の実行を試みる。
共有プロセスであるwwwサーバ408を占有している
ので、ノード障害リカバリ手段106−4は、wwwサ
ーバ408に対応する制御構造体の状態をサービス要求
待ち受け時の状態に戻すと共にwwwサーバ408に対
応するノードフラグをクリアする(S405,S40
6)。その後、ノード障害リカバリ手段106−4は、
正常なノード101−2〜101−4上の共有プロセス
ディスパッチャ106−2〜106−4に、wwwサー
バ408がサービス要求受け付け可能になったことを通
知する(S407)。これにより、ノード101−2〜
101−4では、wwwサーバ408に対するサービス
要求をウエイトさせていた場合、共有プロセスディスパ
ッチャ105−2〜105−4が再度そのサービス要求
の実行を試みる。
【0050】
【発明の効果】第1の効果は、サービスを提供するため
に余り資源を使用せずに、且つ各ノードが自ノードが障
害にならない限りサービスの提供を受けられるという点
である。その理由は、各ノードからアクセス可能な共有
メモリ上に、サービスを提供する共有プロセスを配置す
ると共に、各ノードに、共有プロセスの実行を制御する
共有プロセスディスパッチャと、共有プロセスを占有し
ているノードに障害が発生した時にそのノードから共有
プロセスの実行権をパージするノード障害リカバリ機能
とを設けたからである。
に余り資源を使用せずに、且つ各ノードが自ノードが障
害にならない限りサービスの提供を受けられるという点
である。その理由は、各ノードからアクセス可能な共有
メモリ上に、サービスを提供する共有プロセスを配置す
ると共に、各ノードに、共有プロセスの実行を制御する
共有プロセスディスパッチャと、共有プロセスを占有し
ているノードに障害が発生した時にそのノードから共有
プロセスの実行権をパージするノード障害リカバリ機能
とを設けたからである。
【0051】第2の効果は、サービス要求をウエイトさ
せているノードが、共有プロセス開放後直ちに共有プロ
セスを占有するための処理を行えるという点である。そ
の理由は、共有プロセスディスパッチャに、共有プロセ
スが自ノードのサービス要求に従った処理を完了した
時、他ノードの共有プロセスディスパッチャに対して共
有プロセス開放通知を行う構成を持たせたからである。
せているノードが、共有プロセス開放後直ちに共有プロ
セスを占有するための処理を行えるという点である。そ
の理由は、共有プロセスディスパッチャに、共有プロセ
スが自ノードのサービス要求に従った処理を完了した
時、他ノードの共有プロセスディスパッチャに対して共
有プロセス開放通知を行う構成を持たせたからである。
【図1】本発明の実施の形態の一例を示すブロック図で
ある。
ある。
【図2】共有プロセス制御テーブル107の内容例を示
す図である。
す図である。
【図3】共有プロセスディスパッチャ105−1〜10
5−4の処理例を示す流れ図である。
5−4の処理例を示す流れ図である。
【図4】ノード障害リカバリ手段106−1〜106−
4の処理例を示す流れ図である。
4の処理例を示す流れ図である。
【図5】本発明の実施例のブロック図である。
101−1〜101−4…ノード 102…共有メモリ 103−1〜103−4…アプリケーションプログラム 104−1〜104−4…プロセスディスパッチャ 105−1〜105−4…共有プロセスディスパッチャ 106−1〜106−4…ノード障害リカバリ手段 107…共有プロセス制御テーブル 108−1〜108−n…共有プロセス 109−1〜109−4…記録媒体 403−1〜403−4…wwwブラウザ 408…wwwサーバ
Claims (4)
- 【請求項1】 複数のノードから構成される計算機シス
テムに於いて、 共有プロセスが配置され、且つ前記共有プロセスの制御
構造体と前記共有プロセスを占有しているノードを表示
するノードフラグとを含む共有プロセス制御テーブルが
格納される、前記各ノードからアクセス可能な共有メモ
リを備え、 前記各ノードは、 自ノード内に要求元から前記共有プロセスに対するサー
ビス要求が発行された時、前記ノードフラグに基づいて
前記共有プロセスが他ノードによって占有されているか
否かを判断し、他ノードによって占有されている場合
は、前記サービス要求をウエイトさせ、他ノードによっ
て占有されていない場合は、前記ノードフラグに自ノー
ドが共有プロセスを占有していることを表示した後、前
記共有プロセスに前記サービス要求を処理させる共有プ
ロセスディスパッチャと、 他ノードに障害が発生した時、前記他ノードが前記共有
プロセスを占有している場合は、前記ノードフラグをク
リアすると共に前記制御構造体をサービス要求を受け付
ける状態にするノード障害リカバリ手段とを備えたこと
を特徴とする共有プロセス制御装置。 - 【請求項2】 前記各共有プロセスディスパッチャは、
前記共有プロセスが自ノードのサービス要求に従った処
理を完了した時、前記ノードフラグをクリアし、前記制
御構造体をサービス要求を受け付ける状態にすると共
に、他ノードの共有プロセスディスパッチャに対して共
有プロセス開放通知を行う構成を備えたことを特徴とす
る請求項1記載の共有プロセス制御装置。 - 【請求項3】 前記要求元がwwwブラウザであり、 前記共有プロセスがwwwサーバであることを特徴とす
る請求項2記載の共有プロセス制御装置。 - 【請求項4】 複数のノードから構成される計算機シス
テムであって、共有プロセスが配置され且つ前記共有プ
ロセスの制御構造体と前記共有プロセスを占有している
ノードを表示するノードフラグとを含む共有プロセス制
御テーブルが格納される、前記各ノードからアクセス可
能な共有メモリを備えた計算機システムの各ノードを、 自ノード内に要求元から前記共有プロセスに対するサー
ビス要求が発行された時、前記ノードフラグに基づいて
前記共有プロセスが他ノードによって占有されているか
否かを判断し、他ノードによって占有されている場合
は、前記サービス要求をウエイトさせ、他ノードによっ
て占有されていない場合は、前記ノードフラグに自ノー
ドが共有プロセスを占有していることを表示した後、前
記共有プロセスに前記サービス要求を処理させる共有プ
ロセスディスパッチャ、 他ノードに障害が発生した時、前記他ノードが前記共有
プロセスを占有している場合は、前記ノードフラグをク
リアすると共に前記制御構造体をサービス要求を受け付
ける状態にするノード障害リカバリ手段として機能させ
るためのプログラムを記録した機械読み取り可能な記録
媒体。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10017936A JPH11203254A (ja) | 1998-01-14 | 1998-01-14 | 共有プロセス制御装置及びプログラムを記録した機械読み取り可能な記録媒体 |
| US09/229,338 US6374362B1 (en) | 1998-01-14 | 1999-01-13 | Device and method for shared process control |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP10017936A JPH11203254A (ja) | 1998-01-14 | 1998-01-14 | 共有プロセス制御装置及びプログラムを記録した機械読み取り可能な記録媒体 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH11203254A true JPH11203254A (ja) | 1999-07-30 |
Family
ID=11957676
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP10017936A Pending JPH11203254A (ja) | 1998-01-14 | 1998-01-14 | 共有プロセス制御装置及びプログラムを記録した機械読み取り可能な記録媒体 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US6374362B1 (ja) |
| JP (1) | JPH11203254A (ja) |
Families Citing this family (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6742135B1 (en) * | 2000-11-07 | 2004-05-25 | At&T Corp. | Fault-tolerant match-and-set locking mechanism for multiprocessor systems |
| US20030046615A1 (en) * | 2000-12-22 | 2003-03-06 | Alan Stone | System and method for adaptive reliability balancing in distributed programming networks |
| WO2003029975A2 (en) * | 2001-09-28 | 2003-04-10 | British Telecommunications Public Limited Company | Client server model |
| US7486611B1 (en) * | 2002-05-20 | 2009-02-03 | Cisco Technology, Inc. | Standby router protocol using optimal route metric |
| US7284151B2 (en) * | 2003-07-21 | 2007-10-16 | Oracle International Corporation | Conditional data access after database system failure |
| DE502004003405D1 (de) * | 2004-07-23 | 2007-05-16 | Alcatel Lucent | Verfahren zum Erbringen von Diensten in einem Telekommunikationsnetz sowie Telekommunikationsnetz und Netzwerkknoten hierfür |
| US7502957B2 (en) * | 2005-09-09 | 2009-03-10 | International Business Machines Corporation | Method and system to execute recovery in non-homogeneous multi processor environments |
| DE102005061394A1 (de) * | 2005-12-22 | 2007-06-28 | Robert Bosch Gmbh | Fehlertolerantes Prozessorsystem |
| US8533505B2 (en) | 2010-03-01 | 2013-09-10 | Arm Limited | Data processing apparatus and method for transferring workload between source and destination processing circuitry |
| US8418187B2 (en) * | 2010-03-01 | 2013-04-09 | Arm Limited | Virtualization software migrating workload between processing circuitries while making architectural states available transparent to operating system |
| US20110213935A1 (en) * | 2010-03-01 | 2011-09-01 | Arm Limited | Data processing apparatus and method for switching a workload between first and second processing circuitry |
| US8751833B2 (en) * | 2010-04-30 | 2014-06-10 | Arm Limited | Data processing system |
Family Cites Families (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6336545A (ja) | 1986-07-31 | 1988-02-17 | Nec Corp | 絶縁分離型半導体装置の製造方法 |
| JP2952896B2 (ja) | 1989-07-25 | 1999-09-27 | 日本電気株式会社 | マルチタスク・マルチプロセッサシステムにおける共有メモリアクセス方式 |
| JP3375649B2 (ja) | 1991-09-20 | 2003-02-10 | 株式会社日立製作所 | 並列計算機 |
| GB9123264D0 (en) * | 1991-11-01 | 1991-12-18 | Int Computers Ltd | Semaphone arrangement for a data processing system |
| JPH05225117A (ja) | 1992-02-14 | 1993-09-03 | Nec Corp | 主記憶装置の排他制御回路 |
| JPH064319A (ja) | 1992-06-23 | 1994-01-14 | Nec Corp | オペレーティング・システムにおける共有ルーチン管理方式 |
| JP3003418B2 (ja) | 1992-09-25 | 2000-01-31 | 株式会社日立製作所 | プロセッサ間データ通信方法 |
| JPH06149765A (ja) | 1992-11-12 | 1994-05-31 | Fujitsu Ltd | 共有メモリ排他制御自動解除方式 |
| JPH06161859A (ja) | 1992-11-24 | 1994-06-10 | Nippon Telegr & Teleph Corp <Ntt> | 分散共有資源管理方式 |
| US5544353A (en) | 1993-06-14 | 1996-08-06 | International Business Machines Corporation | Distributed processing object shared resource control apparatus and method |
| JP3504763B2 (ja) * | 1994-08-19 | 2004-03-08 | 富士通株式会社 | 分散システムに使用されるクライアント,サーバ及び記憶装置並びに分散システムにおける資源管理用サーバの復旧方法 |
| JPH08212064A (ja) | 1995-01-31 | 1996-08-20 | Hitachi Ltd | 共用サブルーチンの入れ替えシステム及び共用サブルーチン入れ替え方法 |
| JPH08332675A (ja) | 1995-06-07 | 1996-12-17 | Nitto Denko Corp | 管状物の製造方法 |
| JPH09212561A (ja) | 1996-01-30 | 1997-08-15 | Sony Corp | 情報処理装置および情報処理方法 |
| US5896503A (en) * | 1996-07-23 | 1999-04-20 | International Business Machines Corporation | Managing membership of a domain of processors in a distributed computing environment |
| US5884046A (en) * | 1996-10-23 | 1999-03-16 | Pluris, Inc. | Apparatus and method for sharing data and routing messages between a plurality of workstations in a local area network |
| US6041376A (en) * | 1997-04-24 | 2000-03-21 | Sequent Computer Systems, Inc. | Distributed shared memory system having a first node that prevents other nodes from accessing requested data until a processor on the first node controls the requested data |
| US6085295A (en) * | 1997-10-20 | 2000-07-04 | International Business Machines Corporation | Method of maintaining data coherency in a computer system having a plurality of interconnected nodes |
-
1998
- 1998-01-14 JP JP10017936A patent/JPH11203254A/ja active Pending
-
1999
- 1999-01-13 US US09/229,338 patent/US6374362B1/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| US6374362B1 (en) | 2002-04-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7418627B2 (en) | Cluster system wherein failover reset signals are sent from nodes according to their priority | |
| JP3636871B2 (ja) | 並列プロセッサシステム | |
| US20130290771A1 (en) | Computer system | |
| JPH11203254A (ja) | 共有プロセス制御装置及びプログラムを記録した機械読み取り可能な記録媒体 | |
| JP2003131900A (ja) | サーバシステム運用管理方式 | |
| JPH0576654B2 (ja) | ||
| JP3490473B2 (ja) | プロセッサ間通信システム | |
| JPH028951A (ja) | 対称的な多プロセッサ制御構成体 | |
| US20080163256A1 (en) | Extensible and flexible firmware architecture for reliability, availability, serviceability features | |
| JPS6375963A (ja) | システム回復方式 | |
| KR101038464B1 (ko) | 정보 처리 장치 및 제어 방법 | |
| JP2001022599A (ja) | フォールトトレラント・システム,フォールトトレラント処理方法およびフォールトトレラント制御用プログラム記録媒体 | |
| EP0502215B1 (en) | Message control system in a data communication system | |
| JP2877095B2 (ja) | マルチプロセッサシステム | |
| US20030204775A1 (en) | Method for handling node failures and reloads in a fault tolerant clustered database supporting transaction registration and fault-in logic | |
| JPH0635758A (ja) | プログラム監視制御装置 | |
| JP2002149439A (ja) | 分散処理システムにおけるサーバ切替え方法及びサーバ装置 | |
| JP2001022712A (ja) | 情報処理装置の初期設定方式 | |
| US5781794A (en) | Data processing system having an addition unit for preparing new control tables for new hardware modules and dynamically adding the tables to the present control tables | |
| JP2617984B2 (ja) | 中央処理装置のテスト方法 | |
| JP2011248737A (ja) | タスク引継プログラム、処理装置及びコンピュータ・システム | |
| JP6127039B2 (ja) | クラスタシステムにおけるクラスタ処理の方法及び装置、及びシステム | |
| JPH0766331B2 (ja) | プログラム出口の動的非アクティブ化方法および装置 | |
| JPS6145348A (ja) | バス優先権制御方式 | |
| JPH0628407A (ja) | データベースシステム |