system management
1752777 メンバー
6366 オンライン
108789 解決策
新規ポスト

Serviceguardの設定時 エラー

 
minmi
時折のコントリビューター

Serviceguardの設定時 エラー

主な構成:

・ノード(2つの内臓ディスクをMirrorDisk/UXにてミラーリング)×2台

・別共有ディスク(ディスクアレイ)×1台

FC接続しDB使用する構成です。

こちらで2台のノードをServiceguardでクラスタ構成にしたく設定中です。

HPの手順書を見て設定しておりました

cmquerycl -v -C cluster.ascii -n ノード1名 -n ノード2名

と実行した所、下記のエラーが出ました。

どうしてうまく出力してくれないか不明です。

# cmquerycl -v -C cluster.ascii -n ノード1 -n ノード2

Warning: Unable to determine local domain name for ノード1

Looking for other clusters ... Done

Gathering storage information

Found 16 devices on node ノード1

Found 16 devices on node ノード2

Analysis of 32 devices should take approximately 4 seconds

0%----10%----20%----30%----40%----50%----60%----70%----80%----90%----100%

Found 5 volume groups on node ノード1

Found 5 volume groups on node ノード2

Analysis of 10 volume groups should take approximately 1 seconds

0%----10%----20%----30%----40%----50%----60%----70%----80%----90%----100%

Note: Disks were discovered which are not in use by either LVM or VxVM.

Use pvcreate(1M) to initialize a disk for LVM or,

use vxdiskadm(1M) to initialize a disk for VxVM.

Unable to determine a unique identifier for physical volume /dev/dsk/c2t1d0 on node ノード1. Use pvcreate to give the disk an identifier.

Unable to determine a unique identifier for physical volume /dev/dsk/c2t1d0 on node ノード2. Use pvcreate to give the disk an identifier.

The volume group /dev/vg_lock is activated on more than one node:

ノード1

ノード2

Volume groups should not be activated on more than one node.

Use vgchange to de-activate a volume group on a node.

Gathering network information

Beginning network probing

Completed network probing

Failed to gather configuration information.

原因が分らず対処、対応に困っております。

すみません。何か意味がお分りの方はご教示をお願い致します。
4件の返信4
馳夫
アドバイザー

Serviceguardの設定時 エラー

エラーメッセージに表示されているように、/dev/dsk/c2t1d0 に対してpvcreateを実行すればよいのでは無いでしょうか。

ちなみに、

pvcreate /dev/rdsk/c2t1d0という文法になります。

両ノードでpvcreateする必要はありません。

(pvcreateするとそれまで存在していたデータは初期化されますのでご注意を)

J_I
アドバイザー

Serviceguardの設定時 エラー

メッセージにも出てるし。。

vg_lock を非アクティベイトしたらよかったりしませんか?

The volume group /dev/vg_lock is activated on more than one node:

ノード1

ノード2

Volume groups should not be activated on more than one node.

Use vgchange to de-activate a volume group on a node.

tomonari
頻繁なアドバイザー

Serviceguardの設定時 エラー

2つの問題があると思いますよ。

1つは、/dev/dsk/c2t1d0です。これは内蔵ディスクの1つですよね。実はこれ未使用だったりしませんか?まだ一度もLVMとして使用されていない場合、PVの情報が格納されてないのでこのようになるのかなと思います。未使用であれば、これは無視してよいかと思いますね。

Mirrorの片割れだと問題ありそうですね。

# strings /etc/lvmtab

でLVMに登録されたPVがわかりますよ。ここに入っていなければ無視でよいと思いますよ。

1つは、14zakiさんの仰るとおり、複数ノードでVGがアクティブ化されているので、非アクティブ化すれば解決すると思います。(cmapplyconfを実行するノードではロックディスクをアクティブ化しておく必要がああります。cmapplyconf実行後、非アクティブ化します。)

もし、ファイルシステム構築済で、複数ノードから同時にマウントしてしまっている場合は、ファイルシステムが破壊されている可能性もあるので注意してください。

SG構築後は、排他制御が機能し、複数ノードからの同時アクティブ化は発生しないです。

SGの構築は、DeveloperEdgeに手順書ありますので、そちらも見てみてはいかがでしょう。マニュアルよりは分かりやすいと思います。

http://h50146.www5.hp.com/products/software/oe/hpux/developer/setup/oracle.html#Serviceguard

/etc/lvmrcの変更作業なども記載されていますよ。
minmi
時折のコントリビューター

Serviceguardの設定時 エラー

早速の貴重なご返信をありがとうございます。

設定を一刻も早く済ませなくて行けなかったので

貴重なご意見を参考にさせていただきました。

本当にありがとうございます。

結果としましては、無事にエラーが出なくなりました。

原因は、内蔵ディスクをミラーリングした際に

既にあったミラー先のvg○○が使われなくなり

エラーとなっていた様で、そのvg○○を

非アクティブ化して、lvexportしたら解決致しました。

皆様には貴重なご意見を本当にありがとうございます。