<html><head></head><body><div>
                   
    
    
      
        <meta charset="utf-8">
      
      
        <div id="compose-body-wrapper" dir="auto"><div dir="auto">Are you talking enclosures or subsystems here?</div><div dir="auto"><br></div><div dir="auto">i.e. is it 5 separate dss subsystems each with 2 x x86 controllers or did you add 2 enclosures to the existing 3 dss subsystems?</div><div dir="auto"><br></div><div dir="auto">If you added 2 new dss subsystems. Just suspend the disks on the 2 dss building blocks and remove the NSD’s created like any normal GPFS file system, the data will auto migrate to the remaining 3 building blocks. The 8+2 is local to the subsystem within the DA.</div><div dir="auto"><br></div><div dir="auto">Once done remove those dss controllers from gpfs and do as you please, either keep the vdisks and DA’s or rebuild them.</div><div dir="auto"><br></div><div dir="auto">If the latter, it becomes a bit more complex in fiddling with pdisks, and I don’t think it’s supported.</div><div dir="auto"><br></div><div dir="auto">— Lauz</div><div dir="auto"><br></div><div dir="auto" id="tmjah_g_1299"></div></div><div class="replyHeader" dir="auto">IBM Spectrum Scale wrote:</div><br><br><div><blockquote cite="mid:OF7FF8D0F9.41302935-ON85258884.0064D0DA-65258884.0064DF0C@ibm.com" type="cite" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p><font size="2" face="sans-serif">Adding Steve and Wes to provide guidance on ESS commands.</font><br><br><br><font size="2" face="sans-serif">Regards, The Spectrum Scale (GPFS) team<br><br>------------------------------------------------------------------------------------------------------------------<br>If you feel that your question can benefit other users of  Spectrum Scale (GPFS), then please post it to the public IBM developerWroks Forum at <a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479">https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479</a>. <br><br>If your query concerns a potential software error in Spectrum Scale (GPFS) and you have an IBM software maintenance contract please contact  1-800-237-5511 in the United States or your local IBM Service Center in other countries. <br><br>The forum is informally monitored as time permits and should not be used for priority messages to the Spectrum Scale (GPFS) team.</font><br><br><img width="16" height="16" src="file:///var/mobile/Containers/Data/Application/E6EFC967-17B0-4526-9D9C-A798EC60AAEC/Documents/0/_48_46_48_95_51_115_79_77_46_48_95_51_115_79_77/attachments/0.0_3sOM.0_3sOM!attachment!a0_graycol.gif" border="0" alt="Inactive hide details for "Peter Childs" ---22-06-2022 03.36.33 PM---Having only just got an ESS I'm still learning how GNR wor" bm-cid="cid:1__=0ABB0217DFF7564A8f9e8a93df938690@ibm.com"><font size="2" color="#424282" face="sans-serif">"Peter Childs" ---22-06-2022 03.36.33 PM---Having only just got an ESS I'm still learning how GNR works. as I read it there are currently two "</font><br><br><font size="1" color="#5F5F5F" face="sans-serif">From:        </font><font size="1" face="sans-serif">"Peter Childs" <p.childs@qmul.ac.uk></font><br><font size="1" color="#5F5F5F" face="sans-serif">To:        </font><font size="1" face="sans-serif">"gpfsug-discuss@spectrumscale.org" <gpfsug-discuss@spectrumscale.org></font><br><font size="1" color="#5F5F5F" face="sans-serif">Date:        </font><font size="1" face="sans-serif">22-06-2022 03.36 PM</font><br><font size="1" color="#5F5F5F" face="sans-serif">Subject:        </font><font size="1" face="sans-serif">Re: [gpfsug-discuss] [EXTERNAL]  How to shrink GPFS on DSSG's?</font><br><font size="1" color="#5F5F5F" face="sans-serif">Sent by:        </font><font size="1" face="sans-serif">"gpfsug-discuss" <gpfsug-discuss-bounces@gpfsug.org></font><br></p><hr width="100%" size="2" align="left" noshade="" style="color:#8091A5; "><br><br><br><tt><font size="2">Having only just got an ESS I'm still learning how GNR works. as I read it there are currently two "breeds" of GNR, the version on the "DSS and ESS appliances" and the one in "Erasure Code Edition"<br><br>As I understand it from past talks using mmdeldisk to remove a disk works fine in none GNR editions but is not the best way to do the task.<br><br>My understanding is that you should<br><br>mmchdisk suspend/empty # so new data is not put on the disk but the disk remains available for read.<br>mmrestripefs -m # to move the data off the disk<br>mmdeldisk # to actually remove the disk which should be fast as its already been emptied.<br><br>We have done this with success in the past to migrate data between Raid6 arrays, with success.<br><br>I believe there are some commands with mmvdisk to re-shape recovery groups in GNR but I've not as yet worked out how they work.<br><br><br><br><br>Peter Childs<br><br>________________________________________<br>From: gpfsug-discuss <gpfsug-discuss-bounces@gpfsug.org> on behalf of Jaime Pinto <pinto@scinet.utoronto.ca><br>Sent: Monday, June 20, 2022 7:04 PM<br>To: gpfsug-discuss@spectrumscale.org<br>Subject: [EXTERNAL] [gpfsug-discuss] How to shrink GPFS on DSSG's?<br><br>CAUTION: This email originated from outside of QMUL. Do not click links or open attachments unless you recognise the sender and know the content is safe.<br><br><br>I'm wondering if it's possible to shrink GPFS gracefully. I've seen some references to that effect on some presentations, however I can't find detailed instructions on any formal IBM documentation on how to do it.<br><br>About 3 years ago we launched a new GPFS deployment with 3 DSS-G enclosures (9.6PB usable).<br>Some 1.5 years later we added 2 more enclosures, for a total of 16PB, and only 7PB occupancy so far.<br><br>Basically I'd like to return to the original 3 enclosures, and still maintain the (8+2p) parity level.<br><br>Any suggestions?<br>Thanks<br>Jaime<br><br>---<br>Jaime Pinto - Storage Analyst<br>SciNet HPC Consortium - </font></tt><tt><font size="2">www.scinet.utoronto.ca</font></tt><tt><font size="2"><br>University of Toronto<br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at gpfsug.org<br></font></tt><tt><font size="2"><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss_gpfsug.org">http://gpfsug.org/mailman/listinfo/gpfsug-discuss_gpfsug.org</a></font></tt><tt><font size="2"> <br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at gpfsug.org<br></font></tt><tt><font size="2"><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss_gpfsug.org">http://gpfsug.org/mailman/listinfo/gpfsug-discuss_gpfsug.org</a></font></tt><tt><font size="2"> <br></font></tt><br><br><br>
<br>
</blockquote></div><div><blockquote cite="mid:OF7FF8D0F9.41302935-ON85258884.0064D0DA-65258884.0064DF0C@ibm.com" type="cite" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p><font size="2" face="sans-serif">Adding Steve and Wes to provide guidance on ESS commands.</font><br><br><br><font size="2" face="sans-serif">Regards, The Spectrum Scale (GPFS) team<br><br>------------------------------------------------------------------------------------------------------------------<br>If you feel that your question can benefit other users of  Spectrum Scale (GPFS), then please post it to the public IBM developerWroks Forum at <a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479">https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479</a>. <br><br>If your query concerns a potential software error in Spectrum Scale (GPFS) and you have an IBM software maintenance contract please contact  1-800-237-5511 in the United States or your local IBM Service Center in other countries. <br><br>The forum is informally monitored as time permits and should not be used for priority messages to the Spectrum Scale (GPFS) team.</font><br><br><img width="16" height="16" src="file:///var/mobile/Containers/Data/Application/E6EFC967-17B0-4526-9D9C-A798EC60AAEC/Documents/0/_48_46_48_95_51_115_79_77_46_48_95_51_115_79_77/attachments/0.0_3sOM.0_3sOM!attachment!a0_graycol.gif" border="0" alt="Inactive hide details for "Peter Childs" ---22-06-2022 03.36.33 PM---Having only just got an ESS I'm still learning how GNR wor" bm-cid="cid:1__=0ABB0217DFF7564A8f9e8a93df938690@ibm.com"><font size="2" color="#424282" face="sans-serif">"Peter Childs" ---22-06-2022 03.36.33 PM---Having only just got an ESS I'm still learning how GNR works. as I read it there are currently two "</font><br><br><font size="1" color="#5F5F5F" face="sans-serif">From:        </font><font size="1" face="sans-serif">"Peter Childs" <p.childs@qmul.ac.uk></font><br><font size="1" color="#5F5F5F" face="sans-serif">To:        </font><font size="1" face="sans-serif">"gpfsug-discuss@spectrumscale.org" <gpfsug-discuss@spectrumscale.org></font><br><font size="1" color="#5F5F5F" face="sans-serif">Date:        </font><font size="1" face="sans-serif">22-06-2022 03.36 PM</font><br><font size="1" color="#5F5F5F" face="sans-serif">Subject:        </font><font size="1" face="sans-serif">Re: [gpfsug-discuss] [EXTERNAL]  How to shrink GPFS on DSSG's?</font><br><font size="1" color="#5F5F5F" face="sans-serif">Sent by:        </font><font size="1" face="sans-serif">"gpfsug-discuss" <gpfsug-discuss-bounces@gpfsug.org></font><br></p><hr width="100%" size="2" align="left" noshade="" style="color:#8091A5; "><br><br><br><tt><font size="2">Having only just got an ESS I'm still learning how GNR works. as I read it there are currently two "breeds" of GNR, the version on the "DSS and ESS appliances" and the one in "Erasure Code Edition"<br><br>As I understand it from past talks using mmdeldisk to remove a disk works fine in none GNR editions but is not the best way to do the task.<br><br>My understanding is that you should<br><br>mmchdisk suspend/empty # so new data is not put on the disk but the disk remains available for read.<br>mmrestripefs -m # to move the data off the disk<br>mmdeldisk # to actually remove the disk which should be fast as its already been emptied.<br><br>We have done this with success in the past to migrate data between Raid6 arrays, with success.<br><br>I believe there are some commands with mmvdisk to re-shape recovery groups in GNR but I've not as yet worked out how they work.<br><br><br><br><br>Peter Childs<br><br>________________________________________<br>From: gpfsug-discuss <gpfsug-discuss-bounces@gpfsug.org> on behalf of Jaime Pinto <pinto@scinet.utoronto.ca><br>Sent: Monday, June 20, 2022 7:04 PM<br>To: gpfsug-discuss@spectrumscale.org<br>Subject: [EXTERNAL] [gpfsug-discuss] How to shrink GPFS on DSSG's?<br><br>CAUTION: This email originated from outside of QMUL. Do not click links or open attachments unless you recognise the sender and know the content is safe.<br><br><br>I'm wondering if it's possible to shrink GPFS gracefully. I've seen some references to that effect on some presentations, however I can't find detailed instructions on any formal IBM documentation on how to do it.<br><br>About 3 years ago we launched a new GPFS deployment with 3 DSS-G enclosures (9.6PB usable).<br>Some 1.5 years later we added 2 more enclosures, for a total of 16PB, and only 7PB occupancy so far.<br><br>Basically I'd like to return to the original 3 enclosures, and still maintain the (8+2p) parity level.<br><br>Any suggestions?<br>Thanks<br>Jaime<br><br>---<br>Jaime Pinto - Storage Analyst<br>SciNet HPC Consortium - </font></tt><tt><font size="2">www.scinet.utoronto.ca</font></tt><tt><font size="2"><br>University of Toronto<br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at gpfsug.org<br></font></tt><tt><font size="2"><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss_gpfsug.org">http://gpfsug.org/mailman/listinfo/gpfsug-discuss_gpfsug.org</a></font></tt><tt><font size="2"> <br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at gpfsug.org<br></font></tt><tt><font size="2"><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss_gpfsug.org">http://gpfsug.org/mailman/listinfo/gpfsug-discuss_gpfsug.org</a></font></tt><tt><font size="2"> <br></font></tt><br><br><br>
<br>
</blockquote></div>
      
    
  
                  </div></body></html>