<div><br></div><div>Move its recoverygrops to the other node by putting the other node as primary server for it:</div><div><br></div><div>mmchrecoverygroup rgname --servers otherServer,thisServer</div><div><br></div><div>And verify that it's now active on the other node by "mmlsrecoverygroup rgname -L".</div><div><br></div><div>Move away any filesystem managers or cluster manager role if that's active on it. Check with mmlsmgr, move with mmchmgr/mmchmgr -c.</div><div><br></div><div>Then  you can run mmshutdown on it (assuming you also have enough quorum nodes in the remaining cluster).</div><div><br></div><div><br></div><div>  -jf</div><div><br><div class="gmail_quote"><div>man. 19. des. 2016 kl. 15.53 skrev Damir Krstic <<a href="mailto:damir.krstic@gmail.com">damir.krstic@gmail.com</a>>:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="gmail_msg">We have a single ESS GL6 system running GPFS 4.2.0-1. Last night one of the IO servers phoned home with memory error. IBM is coming out today to replace the faulty DIMM.<div class="gmail_msg"><br class="gmail_msg"></div><div class="gmail_msg">What is the correct way of taking this system out for maintenance?</div><div class="gmail_msg"><br class="gmail_msg"></div><div class="gmail_msg">Before ESS we had a large GPFS 3.5 installation with 14 IO servers. When we needed to do maintenance on the old system, we would migrate manager role and also move primary and secondary server roles if one of those systems had to be taken down. </div><div class="gmail_msg"><br class="gmail_msg"></div><div class="gmail_msg">With ESS and resource pool manager roles etc. is there a correct way of shutting down one of the IO serves for maintenance?</div><div class="gmail_msg"><br class="gmail_msg"></div><div class="gmail_msg">Thanks,</div><div class="gmail_msg">Damir</div></div><br><br>_______________________________________________<br class="gmail_msg"><br>gpfsug-discuss mailing list<br class="gmail_msg"><br>gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer" class="gmail_msg" target="_blank">spectrumscale.org</a><br class="gmail_msg"><br><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer" class="gmail_msg" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br class="gmail_msg"><br></blockquote></div></div>