<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:taxo="http://purl.org/rss/1.0/modules/taxonomy/" version="2.0">
  <channel>
    <title>topic Re: Redhat cluster is not working properly in Operating System - Linux</title>
    <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5383503#M53341</link>
    <description>Hi Matti,&lt;BR /&gt;&lt;BR /&gt;Have configured Qdisk successfully...Thanks a lot...&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;Now I have some questions.&lt;BR /&gt;&lt;BR /&gt;1)Can we see the data stored in Qdisk?&lt;BR /&gt;&lt;BR /&gt;2)What is the default deadnode_timeout value for RHEL 5.7?&lt;BR /&gt;&lt;BR /&gt;3)How to see deadnode_timeout set right now?&lt;BR /&gt;&lt;BR /&gt;4)How to set deadnode_timeout value in RHEL 5.7?</description>
    <pubDate>Mon, 07 Nov 2011 15:03:54 GMT</pubDate>
    <dc:creator>senthil_kumar_1</dc:creator>
    <dc:date>2011-11-07T15:03:54Z</dc:date>
    <item>
      <title>Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5330511#M53198</link>
      <description>&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;I configured the cluster on two nodes (with out Quorum disk) for the services httpd and ftpd. That is, httpd will run from node1 all the time and ftp will run from node2 all the time, if node1 fails, then node2 will host both http and ftp, and If node 2 fails, then node1 will host both http and ftp...&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&lt;STRONG&gt;Hardware details of nodes:&lt;/STRONG&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Both nodes are “ProLiant BL460c G7”&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;I have configured direct ILO login on both nodes.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;I used following method to configure cluster:&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;1)First installed OS, assigned IP address and host name for nodes:&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&lt;STRONG&gt;Node names:&lt;/STRONG&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&lt;STRONG&gt;Node1:&lt;/STRONG&gt; emdlagpbw01 (10.250.1.97)&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&lt;STRONG&gt;Node2: &lt;/STRONG&gt;emdlagpbw02 (10.250.1.98)&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Each node is able to ping each other server by hostname and IP address.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;2)Configured the cluster through "system-config-cluster" on node1.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&lt;STRONG&gt;My cluster configuration:&lt;/STRONG&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&lt;STRONG&gt;# more /etc/cluster/cluster.conf&lt;/STRONG&gt;&lt;BR /&gt;&amp;lt;?xml version="1.0" ?&amp;gt;&lt;BR /&gt;&amp;lt;cluster alias="clu" config_version="14" name="clu"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fence_daemon post_fail_delay="0" post_join_delay="20"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;clusternodes&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;clusternode name="emdlagpbw01.emdna.emdiesels.com" nodeid="1" votes="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fence&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;method name="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;device name="EMDLAGPBW01R"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/method&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/fence&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/clusternode&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;clusternode name="emdlagpbw02.emdna.emdiesels.com" nodeid="2" votes="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fence&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;method name="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;device name="EMDLAGPBW02R"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/method&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/fence&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/clusternode&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/clusternodes&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;cman expected_votes="1" two_node="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fencedevices&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fencedevice agent="fence_ilo" hostname="emdlagpbw01R" login="xxx" name="EMDLAGPBW01R" passwd="xxxxx"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fencedevice agent="fence_ilo" hostname="emdlagpbw02R" login="xxx" name="EMDLAGPBW02R" passwd="xxxxx"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/fencedevices&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;rm&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomains&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomain name="EMDLAGPBWCL1" ordered="1" restricted="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="2"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/failoverdomain&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomain name="EMDLAGPBWCL2" ordered="1" restricted="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="2"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/failoverdomain&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/failoverdomains&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp; &amp;lt;resources&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;ip address="10.250.1.107/22" monitor_link="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;script file="/etc/init.d/httpd" name="httpd"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;ip address="10.250.1.108/22" monitor_link="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;script file="/etc/init.d/vsftpd" name="vsftpd"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/resources&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;service autostart="1" domain="EMDLAGPBWCL1" name="httpd"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;ip ref="10.250.1.107/22"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;script ref="httpd"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/service&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;service autostart="1" domain="EMDLAGPBWCL2" name="vsftpd"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;ip ref="10.250.1.108/22"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;script ref="vsftpd"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/service&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/rm&amp;gt;&lt;BR /&gt;&amp;lt;/cluster&amp;gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;3)copied the file /etc/cluster/cluster.conf to node2&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;4)Started "cman" and "rgmanager" services on node1 and node2...&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;But it is taking lot of time to start fencing on both nodes...&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;I am seeing following message from the log file "/var/log/messages"&amp;nbsp;on both nodes.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Sep 13 10:44:10 emdlagpbw02 fenced[32371]: agent "fence_ilo" reports: Unable to connect/login to fencing device&lt;BR /&gt;Sep 13 10:44:10 emdlagpbw02 fenced[32371]: fence "emdlagpbw01.emdna.emdiesels.com" failed&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&lt;STRONG&gt;My Questions:&lt;/STRONG&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;1)Are my cluster configuration correct?&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;2)Where is the issue?&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;3)Why fencing is not starting, how to resolve this?&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;4)Why the services http and ftp is not started respectively on node1 and node2?&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;</description>
      <pubDate>Wed, 14 Sep 2011 09:33:01 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5330511#M53198</guid>
      <dc:creator>senthil_kumar_1</dc:creator>
      <dc:date>2011-09-14T09:33:01Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5331611#M53199</link>
      <description>Could any one please help me on this.</description>
      <pubDate>Wed, 14 Sep 2011 13:30:10 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5331611#M53199</guid>
      <dc:creator>senthil_kumar_1</dc:creator>
      <dc:date>2011-09-14T13:30:10Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5331709#M53200</link>
      <description>&lt;P&gt;Knowing what model servers your working with would help. If your servers have iLO3 you need to use fence_ipmilan as the fencing agent and the fence user you create in iLO will need to have administrator privileges&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;A patch for fence_ilo is being worked on to enable iLO3 support&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;</description>
      <pubDate>Wed, 14 Sep 2011 14:38:42 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5331709#M53200</guid>
      <dc:creator>Jimmy Vance</dc:creator>
      <dc:date>2011-09-14T14:38:42Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5331909#M53201</link>
      <description>&lt;P&gt;Hi Senthil,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Try below Redhat KB article. Might be helpful&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&lt;A href="https://access.redhat.com/kb/docs/DOC-57676" target="_blank"&gt;https://access.redhat.com/kb/docs/DOC-57676&lt;/A&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Regards,&lt;/P&gt;&lt;P&gt;Chhaya&lt;/P&gt;</description>
      <pubDate>Wed, 14 Sep 2011 17:03:58 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5331909#M53201</guid>
      <dc:creator>Chhaya_Z</dc:creator>
      <dc:date>2011-09-14T17:03:58Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5336585#M53205</link>
      <description>Dear All,&lt;BR /&gt;&lt;BR /&gt;I changed fence device configuration as per following link "&lt;A href="https://access.redhat.com/kb/docs/DOC-56880" target="_blank"&gt;https://access.redhat.com/kb/docs/DOC-56880&lt;/A&gt;".&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;Right now my cluster.conf file in both nodes is...&lt;BR /&gt;&lt;BR /&gt;# vi /etc/cluster/cluster.conf&lt;BR /&gt;&lt;BR /&gt;&amp;lt;?xml version="1.0"?&amp;gt;&lt;BR /&gt;&amp;lt;cluster alias="clu" config_version="14" name="clu"&amp;gt;&lt;BR /&gt;&amp;lt;fence_daemon post_fail_delay="0" post_join_delay="20"/&amp;gt;&lt;BR /&gt;&amp;lt;clusternodes&amp;gt;&lt;BR /&gt;&amp;lt;clusternode name="emdlagpbw01.emdna.emdiesels.com" nodeid="1" votes="1"&amp;gt;&lt;BR /&gt;&amp;lt;fence&amp;gt;&lt;BR /&gt;&amp;lt;method name="1"&amp;gt;&lt;BR /&gt;&amp;lt;device name="EMDLAGPBW01R"/&amp;gt;&lt;BR /&gt;&amp;lt;/method&amp;gt;&lt;BR /&gt;&amp;lt;/fence&amp;gt;&lt;BR /&gt;&amp;lt;/clusternode&amp;gt;&lt;BR /&gt;&amp;lt;clusternode name="emdlagpbw02.emdna.emdiesels.com" nodeid="2" votes="1"&amp;gt;&lt;BR /&gt;&amp;lt;fence&amp;gt;&lt;BR /&gt;&amp;lt;method name="1"&amp;gt;&lt;BR /&gt;&amp;lt;device name="EMDLAGPBW02R"/&amp;gt;&lt;BR /&gt;&amp;lt;/method&amp;gt;&lt;BR /&gt;&amp;lt;/fence&amp;gt;&lt;BR /&gt;&amp;lt;/clusternode&amp;gt;&lt;BR /&gt;&amp;lt;/clusternodes&amp;gt;&lt;BR /&gt;&amp;lt;cman expected_votes="1" two_node="1"/&amp;gt;&lt;BR /&gt;&amp;lt;fencedevices&amp;gt;&lt;BR /&gt;&amp;lt;fencedevice agent="fence_ipmilan" power_wait="10" lanplus="1" ipaddr="10.254.1.113" login="xxx" name="EMDLAGPBW01R" passwd="xxxxxx"/&amp;gt;&lt;BR /&gt;&amp;lt;fencedevice agent="fence_ipmilan" power_wait="10" lanplus="1" ipaddr="10.254.1.143" login="xxx" name="EMDLAGPBW02R" passwd="xxxxxx"/&amp;gt;&lt;BR /&gt;&amp;lt;/fencedevices&amp;gt;&lt;BR /&gt;&amp;lt;rm&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomains&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomain name="EMDLAGPBWCL1" ordered="1" restricted="1"&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="1"/&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="2"/&amp;gt;&lt;BR /&gt;&amp;lt;/failoverdomain&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomain name="EMDLAGPBWCL2" ordered="1" restricted="1"&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="2"/&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="1"/&amp;gt;&lt;BR /&gt;&amp;lt;/failoverdomain&amp;gt;&lt;BR /&gt;&amp;lt;/failoverdomains&amp;gt;&lt;BR /&gt;&amp;lt;resources&amp;gt;&lt;BR /&gt;&amp;lt;ip address="10.250.1.107/22" monitor_link="1"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script file="/etc/init.d/httpd" name="httpd"/&amp;gt;&lt;BR /&gt;&amp;lt;ip address="10.250.1.108/22" monitor_link="1"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script file="/etc/init.d/vsftpd" name="vsftpd"/&amp;gt;&lt;BR /&gt;&amp;lt;/resources&amp;gt;&lt;BR /&gt;&amp;lt;service autostart="1" domain="EMDLAGPBWCL1" name="httpd" recovery="relocate"&amp;gt;&lt;BR /&gt;&amp;lt;ip ref="10.250.1.107/22"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script ref="httpd"/&amp;gt;&lt;BR /&gt;&amp;lt;/service&amp;gt;&lt;BR /&gt;&amp;lt;service autostart="1" domain="EMDLAGPBWCL2" name="vsftpd" recovery="relocate"&amp;gt;&lt;BR /&gt;&amp;lt;ip ref="10.250.1.107/22"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script ref="httpd"/&amp;gt;&lt;BR /&gt;&amp;lt;/service&amp;gt;&lt;BR /&gt;&amp;lt;service autostart="1" domain="EMDLAGPBWCL2" name="vsftpd" recovery="relocate"&amp;gt;&lt;BR /&gt;&amp;lt;ip ref="10.250.1.108/22"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script ref="vsftpd"/&amp;gt;&lt;BR /&gt;&amp;lt;/service&amp;gt;&lt;BR /&gt;&amp;lt;/rm&amp;gt;&lt;BR /&gt;&amp;lt;/cluster&amp;gt;&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;After having same cluster.conf file in both nodes, I started the service "cman" on node1 "emdlagpbw01.emdna.emdiesels.com"...&lt;BR /&gt;&lt;BR /&gt;Example:&lt;BR /&gt;&lt;BR /&gt;# service cman start&lt;BR /&gt;Starting cluster:&lt;BR /&gt;Loading modules... done&lt;BR /&gt;Mounting configfs... done&lt;BR /&gt;Starting ccsd... done&lt;BR /&gt;Starting cman... done&lt;BR /&gt;Starting daemons... done&lt;BR /&gt;Starting fencing... done&lt;BR /&gt;[ OK ]&lt;BR /&gt;&lt;BR /&gt;Output of log file "/var/log/messages" in node1:&lt;BR /&gt;&lt;BR /&gt;Sep 19 11:23:13 emdlagpbw01 openais[11315]: [CLM ] got nodejoin message 10.250.1.97&lt;BR /&gt;Sep 19 11:23:14 emdlagpbw01 ccsd[11306]: Initial status:: Quorate&lt;BR /&gt;Sep 19 11:24:21 emdlagpbw01 fenced[11335]: emdlagpbw02.emdna.emdiesels.com not a cluster member after 20 sec post_join_delay&lt;BR /&gt;Sep 19 11:24:21 emdlagpbw01 fenced[11335]: fencing node "emdlagpbw02.emdna.emdiesels.com"&lt;BR /&gt;Sep 19 11:24:37 emdlagpbw01 fenced[11335]: fence "emdlagpbw02.emdna.emdiesels.com" success&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;Now the node 2 "emdlagpbw02.emdna.emdiesels.com" has been fenced (rebooted automatically)...&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;Once node 2 came up, I started the service "cman" on node2, Now node 1 has been fenced...&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;Output of log file "/var/log/message" in node2:&lt;BR /&gt;&lt;BR /&gt;Sep 19 11:31:14 emdlagpbw02 ccsd[7559]: Initial status:: Quorate&lt;BR /&gt;Sep 19 11:32:21 emdlagpbw02 fenced[7587]: emdlagpbw01.emdna.emdiesels.com not a cluster member after 20 sec post_join_delay&lt;BR /&gt;Sep 19 11:32:21 emdlagpbw02 fenced[7587]: fencing node "emdlagpbw01.emdna.emdiesels.com"&lt;BR /&gt;Sep 19 11:32:37 emdlagpbw02 fenced[7587]: fence "emdlagpbw01.emdna.emdiesels.com" success&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;How to solve this issue, Please help me...&lt;BR /&gt;&lt;BR /&gt;Thanks a lot in advance..&lt;BR /&gt;</description>
      <pubDate>Mon, 19 Sep 2011 16:46:59 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5336585#M53205</guid>
      <dc:creator>senthil_kumar_1</dc:creator>
      <dc:date>2011-09-19T16:46:59Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5336691#M53206</link>
      <description>&lt;P&gt;Apparently your cluster nodes aren't receiving the multicast sent by each other.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;The steps listed in&lt;/P&gt;&lt;P&gt;&lt;A href="https://access.redhat.com/kb/docs/DOC-57237" target="_blank"&gt;https://access.redhat.com/kb/docs/DOC-57237&lt;/A&gt;﻿&lt;/P&gt;&lt;P&gt;could be useful in confirming the problem. (Note: when you ping the cluster multicast address with a &lt;STRONG&gt;two&lt;/STRONG&gt;-node cluster, you should get &lt;STRONG&gt;two&lt;/STRONG&gt; responses for each outgoing ping message. If you get just one, multicast is not working in your network.)&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;This is a known issue with Cisco switches (and possibly other switches with a similar IGMP snooping implementation). Please see this document for the root cause analysis and links to Cisco documents with suggested solutions:&lt;/P&gt;&lt;P&gt;&lt;A href="https://access.redhat.com/kb/docs/DOC-57238" target="_blank"&gt;https://access.redhat.com/kb/docs/DOC-57238&lt;/A&gt;﻿&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Direct link to the most relevant Cisco document:&lt;/P&gt;&lt;P&gt;&lt;A href="http://www.cisco.com/en/US/products/hw/switches/ps708/products_tech_note09186a008059a9df.shtml" target="_blank"&gt;http://www.cisco.com/en/US/products/hw/switches/ps708/products_tech_note09186a008059a9df.shtml&lt;/A&gt;﻿&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;In a nutshell: in Cisco switches, the IGMP snooping feature is enabled by default, but it will only work correctly if there is a multicast-enabled router (mrouter) or some other source of IGMP queries in the same network segment/VLAN. If you don't need a full multicast routing functionality (i.e. if you only need multicast to work within a particular network segment/VLAN), you can use a IGMP Querier function that is built into some Cisco switches. The IGMP Querier will send IGMP queries just like a mrouter, but won't actually route any multicast packets at all. But the queries, and the nodes' responses to them, will allow the IGMP snooping feature of the switches to work as designed.&lt;/P&gt;</description>
      <pubDate>Mon, 19 Sep 2011 17:57:41 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5336691#M53206</guid>
      <dc:creator>Matti_Kurkela</dc:creator>
      <dc:date>2011-09-19T17:57:41Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5337835#M53211</link>
      <description>&lt;P&gt;I think there is some problem in your cluster.conf file. I can't understand why you have mentioned "failoverdomains" two times.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;PRE&gt;&amp;lt;failoverdomains&amp;gt;                                                                        
        &amp;lt;failoverdomain name="EMDLAGPBWCL1" ordered="1" restricted="1"&amp;gt;                  
                &amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="1"/&amp;gt;
                &amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="2"/&amp;gt;
        &amp;lt;/failoverdomain&amp;gt;                                                                
        &amp;lt;failoverdomain name="EMDLAGPBWCL2" ordered="1" restricted="1"&amp;gt;                  
                &amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="2"/&amp;gt;
                &amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="1"/&amp;gt;
        &amp;lt;/failoverdomain&amp;gt;                                                                
&amp;lt;/failoverdomains&amp;gt;                                                                       &lt;/PRE&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Can you please&amp;nbsp;replace cluster.conf file with the following entry.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;PRE&gt;&amp;lt;failoverdomains&amp;gt;                                                                        
        &amp;lt;failoverdomain name="EMDLAGPBWCL1" ordered="1" restricted="1"&amp;gt;                  
                &amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="1"/&amp;gt;
                &amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="2"/&amp;gt;
	&amp;lt;/failoverdomain&amp;gt;                                                                
&amp;lt;/failoverdomains&amp;gt;                                                                       &lt;/PRE&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Then stop and start&amp;nbsp;cman and rgmanager service.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;PRE&gt;[root@emdlagpbw01 ~]# service rgmanager stop 
[root@emdlagpbw01 ~]# service cman stop      
                                             
                                             
[root@emdlagpbw01 ~]# service cman start     
[root@emdlagpbw01 ~]# service rgmanager start
[root@emdlagpbw01 ~]# clustat                &lt;/PRE&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;</description>
      <pubDate>Tue, 20 Sep 2011 14:54:47 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5337835#M53211</guid>
      <dc:creator>Arunabha Banerjee</dc:creator>
      <dc:date>2011-09-20T14:54:47Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5338219#M53215</link>
      <description>&lt;P&gt;&amp;gt; I think there is some problem in your cluster.conf file. I can't understand why you have mentioned "failoverdomains" two times.﻿&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;This is not a problem.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Senthil's configuration file looks like he wants to run 3 cluster services, so that the httpd service normally runs on node 1 and the two vsftpd instances on node 2. To make this happen, Senthil needs two failover domain definitions: the first failoverdomain EMDLAGPBWCL1 has node 1 as the top priority, while the second domain has the node priorities in the reverse order. Then he assigns the httpd server to failover domain EMDLAGPBWCL1, and the vsftpd's to EMDLAGPBWCL2.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Each service has autostart enabled: together with the failover domain definitions, this makes the cluster automatically start each service on the node Senthil prefers them, unless there is a problem that requires the service to failover elsewhere.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;If Senthil had only one failover domain as you suggest, all the services would normally run on the first node.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;This is actually a great philosophical question failover clustering:&lt;/P&gt;&lt;UL&gt;&lt;LI&gt;do you want to keep the spare node(s) idle, so that you know for sure the response times of your services won't degrade if you have to failover?&lt;/LI&gt;&lt;LI&gt;or do you want to provide the best possible response time you can (by distributing the services over the whole set of nodes) in the normal situation, but are willing to accept some degradation when a failover happens?&lt;/LI&gt;&lt;/UL&gt;&lt;P&gt;With a two-node cluster, the first option is expensive: you have the computing power of one server, but the hardware costs of two. The second option allows you to get more use of your hardware, but you must carefully track your workloads and remember that if one node fails, all the workload will be moved to the remaining node, which may become overloaded. But if you understand and accept that risk, &lt;EM&gt;and&lt;/EM&gt; have a plan to mitigate the risk, that's OK. (Perhaps one of the services is less critical than the others and can be shut down in case of overload? Or perhaps Senthil's boss has some estimates of the expected usage of the cluster services, and figures he can authorize the purchase of more hardware well before the workload will become so heavy it cannot all be run on a single node any more.)&lt;/P&gt;</description>
      <pubDate>Tue, 20 Sep 2011 19:40:18 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5338219#M53215</guid>
      <dc:creator>Matti_Kurkela</dc:creator>
      <dc:date>2011-09-20T19:40:18Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5345701#M53237</link>
      <description>&lt;P&gt;I've seen this ping pong fencing happening if the box'es time is slightly off. I recommend trying:&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;I'd bring each box up to single user mode (if you have cluster starting when box comes up). Then:&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;ifup mynic&lt;/P&gt;&lt;P&gt;ntpdate mytime.server.foo # using your time server&lt;/P&gt;&lt;P&gt;hwclock --systohc&lt;/P&gt;&lt;P&gt;date; hwclock --show # verify they are mated&lt;/P&gt;&lt;P&gt;reboot&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;That works for me e.g. if I move a blade and time gets fracked.&lt;/P&gt;</description>
      <pubDate>Tue, 27 Sep 2011 16:25:49 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5345701#M53237</guid>
      <dc:creator>Adam Garsha</dc:creator>
      <dc:date>2011-09-27T16:25:49Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5352657#M53243</link>
      <description>Hi All,&lt;BR /&gt;&lt;BR /&gt;Thanks a lot for your support to resolve this issue..&lt;BR /&gt;&lt;BR /&gt;Right now my cluster is working fine with following configuration.&lt;BR /&gt;&lt;BR /&gt;# vi /etc/cluster/cluster.conf&lt;BR /&gt;&amp;lt;?xml version="1.0"?&amp;gt;&lt;BR /&gt;&amp;lt;cluster alias="clu" config_version="14" name="clu"&amp;gt;&lt;BR /&gt;&amp;lt;fence_daemon post_fail_delay="0" post_join_delay="20"/&amp;gt;&lt;BR /&gt;&amp;lt;clusternodes&amp;gt;&lt;BR /&gt;&amp;lt;clusternode name="emdlagpbw01.emdna.emdiesels.com" nodeid="1" votes="1"&amp;gt;&lt;BR /&gt;&amp;lt;fence&amp;gt;&lt;BR /&gt;&amp;lt;method name="1"&amp;gt;&lt;BR /&gt;&amp;lt;device name="EMDLAGPBW01R"/&amp;gt;&lt;BR /&gt;&amp;lt;/method&amp;gt;&lt;BR /&gt;&amp;lt;/fence&amp;gt;&lt;BR /&gt;&amp;lt;/clusternode&amp;gt;&lt;BR /&gt;&amp;lt;clusternode name="emdlagpbw02.emdna.emdiesels.com" nodeid="2" votes="1"&amp;gt;&lt;BR /&gt;&amp;lt;fence&amp;gt;&lt;BR /&gt;&amp;lt;method name="1"&amp;gt;&lt;BR /&gt;&amp;lt;device name="EMDLAGPBW02R"/&amp;gt;&lt;BR /&gt;&amp;lt;/method&amp;gt;&lt;BR /&gt;&amp;lt;/fence&amp;gt;&lt;BR /&gt;&amp;lt;/clusternode&amp;gt;&lt;BR /&gt;&amp;lt;/clusternodes&amp;gt;&lt;BR /&gt;&amp;lt;cman expected_votes="1" two_node="1" broadcast="yes"/&amp;gt;&lt;BR /&gt;&amp;lt;fencedevices&amp;gt;&lt;BR /&gt;&amp;lt;fencedevice agent="fence_ipmilan" power_wait="10" lanplus="1" ipaddr="10.254.1.113" login="tcs" name="EMDLAGPBW01R" passwd="tCs12345"/&amp;gt;&lt;BR /&gt;&amp;lt;fencedevice agent="fence_ipmilan" power_wait="10" lanplus="1" ipaddr="10.254.1.143" login="tcs" name="EMDLAGPBW02R" passwd="tCs12345"/&amp;gt;&lt;BR /&gt;&amp;lt;/fencedevices&amp;gt;&lt;BR /&gt;&amp;lt;rm&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomains&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomain name="EMDLAGPBWCL1" ordered="1" restricted="1"&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="1"/&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="2"/&amp;gt;&lt;BR /&gt;&amp;lt;/failoverdomain&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomain name="EMDLAGPBWCL2" ordered="1" restricted="1"&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="2"/&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="1"/&amp;gt;&lt;BR /&gt;&amp;lt;/failoverdomain&amp;gt;&lt;BR /&gt;&amp;lt;/failoverdomains&amp;gt;&lt;BR /&gt;&amp;lt;resources&amp;gt;&lt;BR /&gt;&amp;lt;ip address="10.250.1.107/22" monitor_link="1"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script file="/etc/init.d/httpd" name="httpd"/&amp;gt;&lt;BR /&gt;&amp;lt;ip address="10.250.1.108/22" monitor_link="1"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script file="/etc/init.d/vsftpd" name="vsftpd"/&amp;gt;&lt;BR /&gt;&amp;lt;/resources&amp;gt;&lt;BR /&gt;&amp;lt;service autostart="1" domain="EMDLAGPBWCL1" name="httpd" recovery="relocate"&amp;gt;&lt;BR /&gt;&amp;lt;ip ref="10.250.1.107/22"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script ref="httpd"/&amp;gt;&lt;BR /&gt;&amp;lt;/service&amp;gt;&lt;BR /&gt;&amp;lt;service autostart="1" domain="EMDLAGPBWCL2" name="vsftpd" recovery="relocate"&amp;gt;&lt;BR /&gt;&amp;lt;ip ref="10.250.1.108/22"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script ref="vsftpd"/&amp;gt;&lt;BR /&gt;&amp;lt;/service&amp;gt;&lt;BR /&gt;&amp;lt;/rm&amp;gt;&lt;BR /&gt;&amp;lt;/cluster&amp;gt;&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;So it is working fine with out file system configured...&lt;BR /&gt;&lt;BR /&gt;Now I configured file system like below.&lt;BR /&gt;&lt;BR /&gt;# vi /etc/cluster/cluster.conf&lt;BR /&gt;&amp;lt;?xml version="1.0"?&amp;gt;&lt;BR /&gt;&amp;lt;cluster alias="clu" config_version="14" name="clu"&amp;gt;&lt;BR /&gt;&amp;lt;fence_daemon post_fail_delay="0" post_join_delay="20"/&amp;gt;&lt;BR /&gt;&amp;lt;clusternodes&amp;gt;&lt;BR /&gt;&amp;lt;clusternode name="emdlagpbw01.emdna.emdiesels.com" nodeid="1" votes="1"&amp;gt;&lt;BR /&gt;&amp;lt;fence&amp;gt;&lt;BR /&gt;&amp;lt;method name="1"&amp;gt;&lt;BR /&gt;&amp;lt;device name="EMDLAGPBW01R"/&amp;gt;&lt;BR /&gt;&amp;lt;/method&amp;gt;&lt;BR /&gt;&amp;lt;/fence&amp;gt;&lt;BR /&gt;&amp;lt;/clusternode&amp;gt;&lt;BR /&gt;&amp;lt;clusternode name="emdlagpbw02.emdna.emdiesels.com" nodeid="2" votes="1"&amp;gt;&lt;BR /&gt;&amp;lt;fence&amp;gt;&lt;BR /&gt;&amp;lt;method name="1"&amp;gt;&lt;BR /&gt;&amp;lt;device name="EMDLAGPBW02R"/&amp;gt;&lt;BR /&gt;&amp;lt;/method&amp;gt;&lt;BR /&gt;&amp;lt;/fence&amp;gt;&lt;BR /&gt;&amp;lt;/clusternode&amp;gt;&lt;BR /&gt;&amp;lt;/clusternodes&amp;gt;&lt;BR /&gt;&amp;lt;cman expected_votes="1" two_node="1" broadcast="yes"/&amp;gt;&lt;BR /&gt;&amp;lt;fencedevices&amp;gt;&lt;BR /&gt;&amp;lt;fencedevice agent="fence_ipmilan" power_wait="10" lanplus="1" ipaddr="10.254.1.113" login="tcs" name="EMDLAGPBW01R" passwd="tCs12345"/&amp;gt;&lt;BR /&gt;&amp;lt;fencedevice agent="fence_ipmilan" power_wait="10" lanplus="1" ipaddr="10.254.1.143" login="tcs" name="EMDLAGPBW02R" passwd="tCs12345"/&amp;gt;&lt;BR /&gt;&amp;lt;/fencedevices&amp;gt;&lt;BR /&gt;&amp;lt;rm&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomains&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomain name="EMDLAGPBWCL1" ordered="1" restricted="1"&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="1"/&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="2"/&amp;gt;&lt;BR /&gt;&amp;lt;/failoverdomain&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomain name="EMDLAGPBWCL2" ordered="1" restricted="1"&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="2"/&amp;gt;&lt;BR /&gt;&amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="1"/&amp;gt;&lt;BR /&gt;&amp;lt;/failoverdomain&amp;gt;&lt;BR /&gt;&amp;lt;/failoverdomains&amp;gt;&lt;BR /&gt;&amp;lt;resources&amp;gt;&lt;BR /&gt;&amp;lt;ip address="10.250.1.107/22" monitor_link="1"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script file="/etc/init.d/httpd" name="httpd"/&amp;gt;&lt;BR /&gt;&amp;lt;fs device="/dev/sda2" force_fsck="0" force_unmount="1" fsid="33611" fstype="ext3" mountpoint="/test_node1_filesystem" name="test_node&lt;BR /&gt;1" options="" self_fence="0"/&amp;gt;&lt;BR /&gt;&amp;lt;ip address="10.250.1.108/22" monitor_link="1"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script file="/etc/init.d/vsftpd" name="vsftpd"/&amp;gt;&lt;BR /&gt;&amp;lt;fs device="/dev/sda3" force_fsck="0" force_unmount="1" fsid="54001" fstype="ext3" mountpoint="/test_node2_filesystem" name="test_node&lt;BR /&gt;2" options="" self_fence="0"/&amp;gt;&lt;BR /&gt;&amp;lt;/resources&amp;gt;&lt;BR /&gt;&amp;lt;service autostart="1" domain="EMDLAGPBWCL1" name="httpd" recovery="relocate"&amp;gt;&lt;BR /&gt;&amp;lt;ip ref="10.250.1.107/22"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script ref="httpd"/&amp;gt;&lt;BR /&gt;&amp;lt;fs ref="test_node1"/&amp;gt;&lt;BR /&gt;&amp;lt;/service&amp;gt;&lt;BR /&gt;&amp;lt;service autostart="1" domain="EMDLAGPBWCL2" name="vsftpd" recovery="relocate"&amp;gt;&lt;BR /&gt;&amp;lt;ip ref="10.250.1.108/22"/&amp;gt;&lt;BR /&gt;&amp;amp;lt;script ref="vsftpd"/&amp;gt;&lt;BR /&gt;&amp;lt;fs ref="test_node2"/&amp;gt;&lt;BR /&gt;&amp;lt;/service&amp;gt;&lt;BR /&gt;&amp;lt;/rm&amp;gt;&lt;BR /&gt;&amp;lt;/cluster&amp;gt;&lt;BR /&gt;&lt;BR /&gt;For your information:&lt;BR /&gt;&lt;BR /&gt;Cluster services "httpd" and "vsftpd" started in both servers. But only script and IP resource are started but not file system...&lt;BR /&gt;&lt;BR /&gt;File system is not mounted in both nodes...&lt;BR /&gt;&lt;BR /&gt;I have assigned same LUN (/dev/sda) for both nodes, so both nodes are able to see the partition like "/dev/sda2" and "/dev/sda3"...&lt;BR /&gt;&lt;BR /&gt;And I have created empty directories "/test_node1_filesystem" and "/test_node2_filesystem" on both nodes..&lt;BR /&gt;&lt;BR /&gt;But I am not able to see mount point "/test_node1_filesystem" in node1 and "/test_node2_filesystem" in node2 but rest of the resources like scrip "httpd" and IP "10.250.1.107" are started in node1 and script "vsftpd" and IP "10.250.1.108" are started in node1.&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;How to trouble shoot the issue..</description>
      <pubDate>Tue, 04 Oct 2011 15:37:40 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5352657#M53243</guid>
      <dc:creator>senthil_kumar_1</dc:creator>
      <dc:date>2011-10-04T15:37:40Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5355621#M53253</link>
      <description>Could any one please help me on this...</description>
      <pubDate>Fri, 07 Oct 2011 10:25:20 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5355621#M53253</guid>
      <dc:creator>senthil_kumar_1</dc:creator>
      <dc:date>2011-10-07T10:25:20Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5355631#M53254</link>
      <description>&lt;P&gt;When changing the configuration, you are supposed to increase the config_version value on the first line each time. Otherwise your changes may not be recognized by the running cluster.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;The configuration you copy&amp;amp;pasted indicates you did not update the config_version. Before your change:&lt;/P&gt;&lt;PRE&gt;&amp;lt;cluster alias="clu" config_version="14" name="clu"&amp;gt;&lt;/PRE&gt;&lt;P&gt;After your configuration change:&lt;/P&gt;&lt;PRE&gt;&amp;lt;cluster alias="clu" config_version="14" name="clu"&amp;gt;&lt;/PRE&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Increase the config_version and try again.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;The proper procedure for modifying the configuration while the cluster is running depends on the RHEL version.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;With RHEL 5, you should not modify /etc/cluster/cluster.conf directly: instead, you should make a copy of it, make changes to the copy (remember to increase config_version!), and then use "ccs_tool update &amp;lt;modified copy of cluster.conf&amp;gt;" to make the changes effective. The ccs_tool will automatically verify the configuration file, propagate it to all the cluster nodes, and then all the cluster nodes can update their configuration files in a synchronized fashion.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;With RHEL 6, you can apparently edit /etc/cluster/cluster.conf while the cluster is running, but the changes will take effect only after you run "cman_tool version -r". Before you do that, you should run "ccs_config_validate" to verify the configuration syntax is OK.&lt;/P&gt;</description>
      <pubDate>Fri, 07 Oct 2011 10:48:10 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5355631#M53254</guid>
      <dc:creator>Matti_Kurkela</dc:creator>
      <dc:date>2011-10-07T10:48:10Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5358003#M53255</link>
      <description>&lt;P&gt;Hi All,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Now file system is working fine with following configuration.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;# more /etc/cluster/cluster.conf&lt;BR /&gt;&amp;lt;?xml version="1.0"?&amp;gt;&lt;BR /&gt;&amp;lt;cluster alias="BIOSDB" config_version="15" name="BIOSDB"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;quorumd interval="1" label="osdb_qdisk" min_score="1" tko="10" votes="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;heuristic interval="2" program="10.250.0.1" score="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/quorumd&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fence_daemon post_fail_delay="0" post_join_delay="20"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;clusternodes&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;clusternode name="emdlagpbw01.emdna.emdiesels.com" nodeid="1" votes="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fence&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;method name="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;device name="EMDLAGPBW01R"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/method&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/fence&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/clusternode&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;clusternode name="emdlagpbw02.emdna.emdiesels.com" nodeid="2" votes="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fence&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;method name="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;device name="EMDLAGPBW02R"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/method&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/fence&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/clusternode&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/clusternodes&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;cman expected_votes="1" two_node="1" broadcast="yes"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fencedevices&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fencedevice agent="fence_ipmilan" power_wait="10" lanplus="1" ipaddr="10.254.1.113" login="tcs" name="EMDLAGPBW01R" passwd="tCs12345"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fencedevice agent="fence_ipmilan" power_wait="10" lanplus="1" ipaddr="10.254.1.143" login="tcs" name="EMDLAGPBW02R" passwd="tCs12345"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/fencedevices&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;rm&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomains&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomain name="EMDLAGPBWCL1" ordered="1" restricted="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="2"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/failoverdomain&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomain name="EMDLAGPBWCL2" ordered="1" restricted="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomainnode name="emdlagpbw01.emdna.emdiesels.com" priority="2"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;failoverdomainnode name="emdlagpbw02.emdna.emdiesels.com" priority="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/failoverdomain&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/failoverdomains&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;resources&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;ip address="10.250.1.107/22" monitor_link="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;script file="/etc/init.d/httpd" name="httpd"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;lvm name="lvm1" vg_name="test_vg" lv_name="test_lvol1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fs device="/dev/test_vg/test_lvol1" force_fsck="0" force_unmount="1" fsid="33611" fstype="ext3" mountpoint="/test_node1_filesystem" n&lt;BR /&gt;ame="test_node1" options="" self_fence="0"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;ip address="10.250.1.108/22" monitor_link="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;script file="/etc/init.d/vsftpd" name="vsftpd"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;lvm name="lvm2" vg_name="test_new_vg" lv_name="test_new_vg_lvol1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fs device="/dev/test_new_vg/test_new_vg_lvol1" force_fsck="0" force_unmount="1" fsid="54001" fstype="ext3" mountpoint="/test_node2_fi&lt;BR /&gt;lesystem" name="test_node2" options="" self_fence="0"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/resources&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;service autostart="1" domain="EMDLAGPBWCL1" name="httpd" recovery="relocate"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;ip ref="10.250.1.107/22"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;script ref="httpd"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;lvm ref="lvm1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fs ref="test_node1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/service&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;service autostart="1" domain="EMDLAGPBWCL2" name="vsftpd" recovery="relocate"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;ip ref="10.250.1.108/22"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;script ref="vsftpd"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;lvm ref="lvm2"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;fs ref="test_node2"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/service&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; &amp;lt;/rm&amp;gt;&lt;BR /&gt;&amp;lt;/cluster&amp;gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Now I would like to configure Quorum Disk (Qdisk) with this configuration...&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;For that, I have configured disk "/dev/sda1" as Qdisk and it is visible in both nodes...&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Now How can I configure Qdisk in above configuration file?&lt;/P&gt;</description>
      <pubDate>Mon, 10 Oct 2011 19:01:38 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5358003#M53255</guid>
      <dc:creator>senthil_kumar_1</dc:creator>
      <dc:date>2011-10-10T19:01:38Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5379537#M53336</link>
      <description>Could any one of you all help me to configure Qdisk for above configuration file...</description>
      <pubDate>Wed, 02 Nov 2011 14:06:29 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5379537#M53336</guid>
      <dc:creator>senthil_kumar_1</dc:creator>
      <dc:date>2011-11-02T14:06:29Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5379665#M53337</link>
      <description>&lt;P&gt;&amp;nbsp;This line in your cluster configuration does not seem to be correct:&lt;/P&gt;&lt;PRE&gt;            &amp;lt;heuristic interval="2" program="10.250.0.1" score="1"/&amp;gt;&lt;/PRE&gt;&lt;P&gt;&amp;nbsp;The program= field must be a complete command, not just an IP address. You probably meant something like:&lt;/P&gt;&lt;PRE&gt;            &amp;lt;heuristic interval="2" program="ping -c1 -t1 10.250.0.1" score="1"/&amp;gt;&lt;/PRE&gt;&lt;P&gt;&amp;nbsp;When you fix this, remember again to increase the config_version value.&lt;/P&gt;&lt;P&gt;Otherwise your quorum disk configuration looks OK to me.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;The next step is to prepare the quorum disk with "mkqdisk".&lt;/P&gt;&lt;P&gt;On one node, run:&lt;/P&gt;&lt;PRE&gt;mkqdisk -c /dev/sda1 -l osdb_qdisk&lt;/PRE&gt;&lt;P&gt;&amp;nbsp;On the other node, run this command to verify the node sees the newly-created quorum disk:&lt;/P&gt;&lt;PRE&gt;mkqdisk -L&lt;/PRE&gt;&lt;P&gt;The output should look like this:&lt;/P&gt;&lt;PRE&gt;# mkqdisk -L
mkqdisk v0.6.0
/dev/sda1:
        Magic:                eb7a62c2
        Label:                osdb_qdisk
        Created:              Thu Mar 18 15:29:49 2010
        Host:                 emdlagpbw01
        Kernel Sector Size:   512
        Recorded Sector Size: 512&lt;/PRE&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;Then you can start the quorum disk daemon on both nodes:&lt;/P&gt;&lt;PRE&gt;service qdiskd start
chkconfig qdiskd on&lt;/PRE&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;After starting the quorum disk daemon, wait a few minutes, then run "clustat". The quorum disk should appear in the cluster member listing, typically with a node ID 0 and with Status "Online, Quorum Disk".&lt;/P&gt;</description>
      <pubDate>Wed, 02 Nov 2011 15:43:49 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5379665#M53337</guid>
      <dc:creator>Matti_Kurkela</dc:creator>
      <dc:date>2011-11-02T15:43:49Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5383503#M53341</link>
      <description>Hi Matti,&lt;BR /&gt;&lt;BR /&gt;Have configured Qdisk successfully...Thanks a lot...&lt;BR /&gt;&lt;BR /&gt;&lt;BR /&gt;Now I have some questions.&lt;BR /&gt;&lt;BR /&gt;1)Can we see the data stored in Qdisk?&lt;BR /&gt;&lt;BR /&gt;2)What is the default deadnode_timeout value for RHEL 5.7?&lt;BR /&gt;&lt;BR /&gt;3)How to see deadnode_timeout set right now?&lt;BR /&gt;&lt;BR /&gt;4)How to set deadnode_timeout value in RHEL 5.7?</description>
      <pubDate>Mon, 07 Nov 2011 15:03:54 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5383503#M53341</guid>
      <dc:creator>senthil_kumar_1</dc:creator>
      <dc:date>2011-11-07T15:03:54Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster is not working properly</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5917865#M54024</link>
      <description>&lt;P&gt;hi Jimmy,&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;I think you are right. I create a user for fence_ipmilan and execute the command:&lt;/P&gt;&lt;P&gt;fence_ipmilan -A password &amp;nbsp;-a XX.XXX.XXX.XX -l RHCS_USER -p 1qaz2wsx -o status -v -P, it turns out failed. after read your reply, i noticed that i didn't give it the administrator privilege but only a user privilege having right to reset server. then i grant my user as administrator, it succeed.&lt;/P&gt;&lt;P&gt;Thank you very much. It is really helpful for me. &amp;nbsp;&lt;/P&gt;</description>
      <pubDate>Mon, 31 Dec 2012 06:05:42 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-is-not-working-properly/m-p/5917865#M54024</guid>
      <dc:creator>lickky</dc:creator>
      <dc:date>2012-12-31T06:05:42Z</dc:date>
    </item>
  </channel>
</rss>

