<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:taxo="http://purl.org/rss/1.0/modules/taxonomy/" version="2.0">
  <channel>
    <title>topic Re: Redhat cluster start cman fence the other node in Operating System - Linux</title>
    <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-start-cman-fence-the-other-node/m-p/5695429#M60041</link>
    <description>&lt;P&gt;Are there any cluster related log entries in /var/log/messages on both machines?&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;You should consider enabling cman debug messages:&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;PRE&gt;&amp;lt;logging to_file="yes" logfile="/tmp/openais.log" fileline="on"&amp;gt;
   &amp;lt;logger ident="CMAN" debug="on"/&amp;gt;
&amp;lt;/logging&amp;gt;&lt;/PRE&gt;&lt;P&gt;The qdisk is shared storage, right?&lt;/P&gt;</description>
    <pubDate>Wed, 20 Jun 2012 08:23:05 GMT</pubDate>
    <dc:creator>Reiner  Rottmann</dc:creator>
    <dc:date>2012-06-20T08:23:05Z</dc:date>
    <item>
      <title>Redhat cluster start cman fence the other node</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-start-cman-fence-the-other-node/m-p/5402363#M60040</link>
      <description>&lt;P&gt;Hi,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;I know this not the first post about Redhat Cluster Suite fencing.&lt;/P&gt;&lt;P&gt;BUT I read and try alot alot before start this post.&lt;/P&gt;&lt;P&gt;I have Redhat 2.6.18-194.el5 #1 SMP Tue Mar 16 21:52:39 EDT 2010 x86_64 x86_64 x86_64 GNU/Linux&lt;/P&gt;&lt;P&gt;I'm trying to configure&amp;nbsp;Redhat Cluster&amp;nbsp;Active/Passive for two nodes.&lt;/P&gt;&lt;P&gt;I configur the cluster and run the services on oradb1, I halt oradb1 and the services start on oradb2 normally.&lt;/P&gt;&lt;P&gt;&lt;STRONG&gt;BUT now when any server start the cman service it will kill the other node&lt;/STRONG&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&lt;STRONG&gt;I appriciate if some one can help&lt;/STRONG&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;- two&amp;nbsp;ProLiant DL380 G7 ( ilo3 )&lt;/P&gt;&lt;P&gt;-&amp;nbsp;two mount point /u01 /backup ( lvm )&lt;/P&gt;&lt;P&gt;-&amp;nbsp;nodes oradb1, oradb2&amp;nbsp;&lt;/P&gt;&lt;P&gt;- iptables off 2345&lt;/P&gt;&lt;P&gt;- cman on 2345&lt;/P&gt;&lt;P&gt;- rgmanager on 2345&lt;/P&gt;&lt;P&gt;- qdiskd on 2345&lt;/P&gt;&lt;P&gt;- acpi off 2345&lt;/P&gt;&lt;P&gt;- ipmi on 2345&lt;/P&gt;&lt;P&gt;- #&amp;nbsp;rpm -qa | grep cman&lt;BR /&gt;&amp;nbsp; cman-2.0.115-34.el5&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;# mkqdisk -L -v&lt;BR /&gt;mkqdisk v0.6.0&lt;BR /&gt;/dev/dm-4:&lt;BR /&gt;/dev/mapper/mpath2:&lt;BR /&gt;/dev/mpath/mpath2:&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; Magic:&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; eb7a62c2&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; Label:&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; qdisk&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; Created:&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; Sun Nov 27 12:56:32 2011&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; Host:&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; ORADB1&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; Kernel Sector Size:&amp;nbsp;&amp;nbsp; 512&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; Recorded Sector Size: 512&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;# ccs_tool lsnode&lt;/P&gt;&lt;P&gt;Cluster name: ora_cluster, config_version: 32&lt;/P&gt;&lt;P&gt;Nodename&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; Votes Nodeid Fencetype&lt;BR /&gt;oradb1&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1&amp;nbsp;&amp;nbsp;&amp;nbsp; 1&amp;nbsp;&amp;nbsp;&amp;nbsp; db1ilo&lt;BR /&gt;oradb2&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1&amp;nbsp;&amp;nbsp;&amp;nbsp; 2&amp;nbsp;&amp;nbsp;&amp;nbsp; db2ilo&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;[root@oradb1 ~]# clustat -l&lt;BR /&gt;Cluster Status for ora_cluster @ Mon Nov 28 18:10:52 2011&lt;BR /&gt;Member Status: Quorate&lt;/P&gt;&lt;P&gt;&amp;nbsp;Member Name&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; ID&amp;nbsp;&amp;nbsp; Status&lt;BR /&gt;&amp;nbsp;------ ----&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; ---- ------&lt;BR /&gt;&amp;nbsp;oradb1&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 1 Online, Local, rgmanager&lt;BR /&gt;&amp;nbsp;&lt;STRONG&gt;oradb2&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 2 Offline&amp;nbsp;&amp;nbsp;&lt;/STRONG&gt;&lt;BR /&gt;&amp;nbsp;/dev/dm-4&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; 0 Online, Quorum Disk&lt;/P&gt;&lt;P&gt;Service Information&lt;BR /&gt;------- -----------&lt;/P&gt;&lt;P&gt;Service Name&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; : service:orasrv&lt;BR /&gt;&amp;nbsp; Current State&amp;nbsp;&amp;nbsp; : started (112)&lt;BR /&gt;&amp;nbsp; Flags&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; : none (0)&lt;BR /&gt;&amp;nbsp; Owner&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; : oradb1&lt;BR /&gt;&amp;nbsp; Last Owner&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; : none&lt;BR /&gt;&amp;nbsp; Last Transition : Mon Nov 28 18:04:44 2011&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&lt;STRONG&gt;This is my configuration&lt;/STRONG&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;lt;?xml version="1.0"?&amp;gt;&lt;BR /&gt;&amp;lt;cluster alias="ora_cluster" config_version="32" name="ora_cluster"&amp;gt;&lt;/P&gt;&lt;P&gt;&amp;lt;quorumd interval="3" label="qdisk" min_score="1" tko="9" votes="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;heuristic interval="3" program="ping -c1 -t1 10.1.1.1" score="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;lt;/quorumd&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;lt;fence_daemon clean_start="0" post_fail_delay="0" post_join_delay="3"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;lt;clusternodes&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;clusternode name="oradb1" nodeid="1" votes="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;fence&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;method name="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;device lanplus="1" name="db1ilo"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;/method&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;/fence&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;/clusternode&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;clusternode name="oradb2" nodeid="2" votes="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;fence&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;method name="1"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;device lanplus="1" name="db2ilo"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;/method&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;/fence&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;/clusternode&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;lt;/clusternodes&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;lt;cman expected_votes="3"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;lt;fencedevices&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;fencedevice agent="fence_ipmilan" ipaddr="10.1.1.71" lanplus="1" login="admin" name="db1ilo" passwd="admin123"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;fencedevice agent="fence_ipmilan" ipaddr="10.1.1.72" lanplus="1" login="admin" name="db2ilo" passwd="admin123"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;lt;/fencedevices&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;lt;rm log_facility="local4" log_level="7"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;failoverdomains&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;failoverdomain name="oradb" ordered="1" restricted="0"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;failoverdomainnode name="oradb1" priority="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;failoverdomainnode name="oradb2" priority="2"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;/failoverdomain&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;/failoverdomains&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;resources&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;ip address="10.1.1.8/24" monitor_link="1"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;/resources&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;service autostart="1" domain="oradb" name="orasrv" recovery="relocate"&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;fs device="/dev/mapper/vg02-lvol1" force_fsck="0" force_unmount="0" fsid="64360" fstype="ext3" mountpoint="/backup" name="orabackup" options="" self_fence="0"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;fs device="/dev/mapper/vg01-lvol1" force_fsck="0" force_unmount="0" fsid="49801" fstype="ext3" mountpoint="/u01" name="orahome" options="" self_fence="0"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;lt;ip ref="10.1.1.8/24"/&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;nbsp;&amp;lt;/service&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;lt;/rm&amp;gt;&lt;BR /&gt;&amp;nbsp;&amp;lt;/cluster&amp;gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&lt;STRONG&gt;BR&lt;/STRONG&gt;&lt;/P&gt;&lt;P&gt;&lt;STRONG&gt;Nabil&lt;/STRONG&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;</description>
      <pubDate>Mon, 28 Nov 2011 16:08:30 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-start-cman-fence-the-other-node/m-p/5402363#M60040</guid>
      <dc:creator>Nabil_hajomar</dc:creator>
      <dc:date>2011-11-28T16:08:30Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster start cman fence the other node</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-start-cman-fence-the-other-node/m-p/5695429#M60041</link>
      <description>&lt;P&gt;Are there any cluster related log entries in /var/log/messages on both machines?&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;You should consider enabling cman debug messages:&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;PRE&gt;&amp;lt;logging to_file="yes" logfile="/tmp/openais.log" fileline="on"&amp;gt;
   &amp;lt;logger ident="CMAN" debug="on"/&amp;gt;
&amp;lt;/logging&amp;gt;&lt;/PRE&gt;&lt;P&gt;The qdisk is shared storage, right?&lt;/P&gt;</description>
      <pubDate>Wed, 20 Jun 2012 08:23:05 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-start-cman-fence-the-other-node/m-p/5695429#M60041</guid>
      <dc:creator>Reiner  Rottmann</dc:creator>
      <dc:date>2012-06-20T08:23:05Z</dc:date>
    </item>
    <item>
      <title>Re: Redhat cluster start cman fence the other node</title>
      <link>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-start-cman-fence-the-other-node/m-p/5695537#M60042</link>
      <description>&lt;P&gt;I've seen cases where RedHat Cluster can start when the Conga configuration tool starts all nodes simultaneously&amp;nbsp; when setting up the cluster, but when a node leaves the cluster, it will fail to rejoin and instead fences the other node. As the other node reboots after being fenced, it will try to rejoin the cluster... and if it fails too, you will get a see-saw effect (each node reboots and then fences the other node in turn).&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;In the cases I've seen, this was caused by problems in IP multicast propagation.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;The implementation of IGMP snooping in a large group of Cisco switches has a known issue: if there is no multicast router or IGMP querier (or any other source of IGMP queries) in the network segment, the switches will fail to detect systems attempting to &lt;STRONG&gt;re&lt;/STRONG&gt;join existing multicast groups.&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;&lt;P&gt;This Cisco Tech Note includes 5 ways to address this issue:&lt;/P&gt;&lt;P&gt;&lt;A target="_blank" href="http://www.cisco.com/en/US/products/hw/switches/ps708/products_tech_note09186a008059a9df.shtml"&gt;http://www.cisco.com/en/US/products/hw/switches/ps708/products_tech_note09186a008059a9df.shtml&lt;/A&gt;&lt;/P&gt;&lt;P&gt;&amp;nbsp;&lt;/P&gt;</description>
      <pubDate>Wed, 20 Jun 2012 10:12:50 GMT</pubDate>
      <guid>https://community.hpe.com/t5/operating-system-linux/redhat-cluster-start-cman-fence-the-other-node/m-p/5695537#M60042</guid>
      <dc:creator>Matti_Kurkela</dc:creator>
      <dc:date>2012-06-20T10:12:50Z</dc:date>
    </item>
  </channel>
</rss>

