<font size=2 face="sans-serif">seems, that the node is up n running from
the OS point of view .. </font><br><font size=2 face="sans-serif">so one can ping the node/ login the
node... </font><br><br><font size=2 face="sans-serif">but the /var/mmfs DIR is obviously damaged/empty
.. what ever.. that's why you see a message like this..</font><br><font size=2 face="sans-serif">have you reinstalled that node / any
backup/restore thing ?</font><br><div><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">"J. Eric Wonderley"
<eric.wonderley@vt.edu></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">gpfsug main discussion
list <gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">02/02/2017 06:04 PM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">[gpfsug-discuss]
proper gpfs shutdown when node disappears</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><font size=3>Is there a way to accomplish this so the rest of cluster
knows its down?<br></font><br><font size=3>My state now:<br>[root@cl001 ~]# mmgetstate -aL<br>cl004.cl.arc.internal:  mmremote: determineMode: Missing file /var/mmfs/gen/mmsdrfs.<br>cl004.cl.arc.internal:  mmremote: This node does not belong to a GPFS
cluster.<br>mmdsh: cl004.cl.arc.internal remote shell process had return code 1.<br><br> Node number  Node name       Quorum 
Nodes up  Total nodes  GPFS state  Remarks   
<br>------------------------------------------------------------------------------------<br>       1      cl001             
5        7         
8       active     
quorum node<br>       2      cl002             
5        7         
8       active     
quorum node<br>       3      cl003             
5        7         
8       active     
quorum node<br>       4      cl004             
0        0         
8       unknown     quorum
node<br>       5      cl005             
5        7         
8       active     
quorum node<br>       6      cl006             
5        7         
8       active     
quorum node<br>       7      cl007             
5        7         
8       active     
quorum node<br>       8      cl008             
5        7         
8       active     
quorum node</font><br><br><font size=3>cl004 we think has an internal raid controller blowout</font><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><br><br></div><BR>