- Community Home
- >
- HPE Community, Japan
- >
- HP-UX
- >
- System Management
- >
- クラスタロックディスク異常
system management
1753479
メンバー
4971
オンライン
108794
解決策
フォーラム
カテゴリ
Company
Local Language
戻る
フォーラム
ディスカッションボード
フォーラム
- Data Protection and Retention
- Entry Storage Systems
- Legacy
- Midrange and Enterprise Storage
- Storage Networking
- HPE Nimble Storage
ディスカッションボード
ディスカッションボード
ディスカッションボード
フォーラム
ディスカッションボード
戻る
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
- BladeSystem Infrastructure and Application Solutions
- Appliance Servers
- Alpha Servers
- BackOffice Products
- Internet Products
- HPE 9000 and HPE e3000 Servers
- Networking
- Netservers
- Secure OS Software for Linux
- Server Management (Insight Manager 7)
- Windows Server 2003
- Operating System - Tru64 Unix
- ProLiant Deployment and Provisioning
- Linux-Based Community / Regional
- Microsoft System Center Integration
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
ブログ
情報
コミュニティ言語
言語
フォーラム
ブログ
トピックオプション
- RSS フィードを購読する
- トピックを新着としてマーク
- トピックを既読としてマーク
- このトピックを現在のユーザーにフロートします
- ブックマーク
- 購読
- 印刷用ページ
- 新着としてマーク
- ブックマーク
- 購読
- ミュート
- RSS フィードを購読する
- ハイライト
- 印刷
- 不適切なコンテンツを報告
08-05-2007 11:58 PM
08-05-2007 11:58 PM
クラスタロックディスク異常
OS HP10.02
二重化構成のサーバを運用しております。系の切替を行ったところクラスタロックディスクIOエラーなるログがsyslog.logに出力されていてサービスガードのパッケージスクリプトが(pkg1.cntl.logにて確認)どうも停止したようで系が切り替わりませんでした。
クラスタロックディスクは、dual構成となっておりました。Vg02がファースト、vg03がセカンドとなっております。今回はvg02ファーストにてIOエラーとなっております。その場合vg03のセカンドのロックディスクをつかみに行かないものなのでしょうか?dual構成のクラスタロックディスクについて情報があればご教授願えませんでしょうか?セカンドロックディスクは未使用?となるのでしょうか?
●失敗時のシスログ
WARNING: Cluster lock disk /dev/dsk/c1t4d0 has failed: I/O error
Until it is fixed, a single failure could
cause all nodes in the cluster to crash
Warning. Failed to clear First Dual Cluster Lock, continuing.
Clearing Second Dual Cluster Lock
二重化構成のサーバを運用しております。系の切替を行ったところクラスタロックディスクIOエラーなるログがsyslog.logに出力されていてサービスガードのパッケージスクリプトが(pkg1.cntl.logにて確認)どうも停止したようで系が切り替わりませんでした。
クラスタロックディスクは、dual構成となっておりました。Vg02がファースト、vg03がセカンドとなっております。今回はvg02ファーストにてIOエラーとなっております。その場合vg03のセカンドのロックディスクをつかみに行かないものなのでしょうか?dual構成のクラスタロックディスクについて情報があればご教授願えませんでしょうか?セカンドロックディスクは未使用?となるのでしょうか?
●失敗時のシスログ
WARNING: Cluster lock disk /dev/dsk/c1t4d0 has failed: I/O error
Until it is fixed, a single failure could
cause all nodes in the cluster to crash
Warning. Failed to clear First Dual Cluster Lock, continuing.
Clearing Second Dual Cluster Lock
3件の返信3
- 新着としてマーク
- ブックマーク
- 購読
- ミュート
- RSS フィードを購読する
- ハイライト
- 印刷
- 不適切なコンテンツを報告
08-07-2007 03:01 PM
08-07-2007 03:01 PM
クラスタロックディスク異常
2ノードクラスタで、
- ハートビート全滅
- どちらか1台のノード障害
が発生した場合に、クラスタ再構成が発生します。
この時に、クラスタロックが全滅していると、全ノードがダウンします(メモリダンプしてリブート)。全ノードです。
もし、ハートビート経路を全部抜いて、どちらか一方のノードが生き残るのであれば、Dualクラスタロックはうまく動作していると思いますよ。
ログにはちゃんと「Clearing Second Dual Cluster Lock」とあるので、うまく動作してると思うのですけれど。ここの「Clearing」とは「使用準備OK」という意味が判りやすいです。古いデータをクリアしたと。
パッケージはロックディスクの機能とは関係ないです。パッケージは壊れたディスクを含むVGを使用しているとかで停止したのではないでしょうか。パッケージのログpkg1.cntl.logに何が起きたかが出ていると思いますよ。
- ハートビート全滅
- どちらか1台のノード障害
が発生した場合に、クラスタ再構成が発生します。
この時に、クラスタロックが全滅していると、全ノードがダウンします(メモリダンプしてリブート)。全ノードです。
もし、ハートビート経路を全部抜いて、どちらか一方のノードが生き残るのであれば、Dualクラスタロックはうまく動作していると思いますよ。
ログにはちゃんと「Clearing Second Dual Cluster Lock」とあるので、うまく動作してると思うのですけれど。ここの「Clearing」とは「使用準備OK」という意味が判りやすいです。古いデータをクリアしたと。
パッケージはロックディスクの機能とは関係ないです。パッケージは壊れたディスクを含むVGを使用しているとかで停止したのではないでしょうか。パッケージのログpkg1.cntl.logに何が起きたかが出ていると思いますよ。
- 新着としてマーク
- ブックマーク
- 購読
- ミュート
- RSS フィードを購読する
- ハイライト
- 印刷
- 不適切なコンテンツを報告
08-08-2007 08:55 AM
08-08-2007 08:55 AM
クラスタロックディスク異常
ご返信ありがとうございます。
pkg1.cntl.logからはvgchangeによりvg02をアクティブにできかった為エラーになっていました。だとするとvg03セカンドクラスターが正常だったとしてもパッケージにてvg02のアクティブがNGだった場合は、だめだということですね!
一般的にノード間のパッケージの移動と、クラスタの再構成は意味合いはリンクするものなのでしょうか?
※セカンドクラスターディスクは、ddコマンドにより正常を確認しました。
pkg1.cntl.logからはvgchangeによりvg02をアクティブにできかった為エラーになっていました。だとするとvg03セカンドクラスターが正常だったとしてもパッケージにてvg02のアクティブがNGだった場合は、だめだということですね!
一般的にノード間のパッケージの移動と、クラスタの再構成は意味合いはリンクするものなのでしょうか?
※セカンドクラスターディスクは、ddコマンドにより正常を確認しました。
- 新着としてマーク
- ブックマーク
- 購読
- ミュート
- RSS フィードを購読する
- ハイライト
- 印刷
- 不適切なコンテンツを報告
08-09-2007 10:16 AM
08-09-2007 10:16 AM
クラスタロックディスク異常
はい。vg02をpkg1が使用していて、障害でアクティブできない場合は、クラスタが正常に再構成できても、パッケージのフェイルオーバーに失敗してしまいます。
クラスタの再構成完了し、適切な生存ノードが確定して、パッケージフェイルオーバー動作が行われます。クラスタロックディスクはパッケージのフェイルオーバーとは関係ないですよ。
vg02が障害を起こしてもクラスタ再構成はしません。クラスタ再構成が発生するのは、
・ノードの起動、停止によるノード数の変化
・ハートビート全滅
・ノード障害
ですね。
VGのアクティブ化に失敗するのは、そのVGに所属する物理ボリューム(PV)の50%を越える数にアクセスできない場合です。(LVMのクォーラムチェック)VG操作のログはsystemのログに出ます。
クラスタが起動している状態で、以下のコマンドでVGをアクティブ化できるかどうか確認してみると良いと思います。
フェイルオーバー先のノードで
# vgchange -a e vg02
vgdisplayコマンドで確認後は、
# vgchange -a n vg02
で非アクティブ化できますよ。
コマンドでVGがアクティブ化できるにもかかわらず、SGのパッケージフェイルオーバーでは失敗してしまう場合は、SGのせいなのでレスポンスセンターにコールした方が良いと思いますよ。HP-UX10.Xなのでパッチなどあるかもしれないですし。コマンドでもアクティブ化できない場合は、ディスクや経路で故障がないかをシステムのログから調べると良いとおもいます。
クラスタの再構成完了し、適切な生存ノードが確定して、パッケージフェイルオーバー動作が行われます。クラスタロックディスクはパッケージのフェイルオーバーとは関係ないですよ。
vg02が障害を起こしてもクラスタ再構成はしません。クラスタ再構成が発生するのは、
・ノードの起動、停止によるノード数の変化
・ハートビート全滅
・ノード障害
ですね。
VGのアクティブ化に失敗するのは、そのVGに所属する物理ボリューム(PV)の50%を越える数にアクセスできない場合です。(LVMのクォーラムチェック)VG操作のログはsystemのログに出ます。
クラスタが起動している状態で、以下のコマンドでVGをアクティブ化できるかどうか確認してみると良いと思います。
フェイルオーバー先のノードで
# vgchange -a e vg02
vgdisplayコマンドで確認後は、
# vgchange -a n vg02
で非アクティブ化できますよ。
コマンドでVGがアクティブ化できるにもかかわらず、SGのパッケージフェイルオーバーでは失敗してしまう場合は、SGのせいなのでレスポンスセンターにコールした方が良いと思いますよ。HP-UX10.Xなのでパッチなどあるかもしれないですし。コマンドでもアクティブ化できない場合は、ディスクや経路で故障がないかをシステムのログから調べると良いとおもいます。
上記の意見は、Hewlett Packard Enterpriseではなく、著者の個人的な意見です。 このサイトを使用することで、利用規約と参加規約に同意したことになります 。
© Copyright 2024 Hewlett Packard Enterprise Development LP