<font size=2 face="sans-serif">You can control the load of mmrestripefs
(and all maintenance commands) on your system using mmchqos ... <br></font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">"Olaf Weiser"
<olaf.weiser@de.ibm.com></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">gpfsug main discussion
list <gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">03/15/2017 04:04 PM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">Re: [gpfsug-discuss]
Running multiple mmrestripefs in a single        cluster?</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><font size=2 face="sans-serif">yes.. and please be carefully about
the number of nodes , doing the job because of multiple PIT worker hammering
against your data <br>if you limit the restripe to 2 nodes  (-N ......)   of adjust
the PITworker down to 8 or even 4  ... you can run multiple restripes..
without hurting the application workload to much ... but the final duration
of your restripe then will be affected <br>cheers</font><font size=3><br><br><br><br></font><font size=1 color=#5f5f5f face="sans-serif"><br>From:        </font><font size=1 face="sans-serif">"Oesterlin,
Robert" <Robert.Oesterlin@nuance.com></font><font size=1 color=#5f5f5f face="sans-serif"><br>To:        </font><font size=1 face="sans-serif">gpfsug
main discussion list <gpfsug-discuss@spectrumscale.org></font><font size=1 color=#5f5f5f face="sans-serif"><br>Date:        </font><font size=1 face="sans-serif">03/15/2017
03:27 PM</font><font size=1 color=#5f5f5f face="sans-serif"><br>Subject:        </font><font size=1 face="sans-serif">[gpfsug-discuss]
Running multiple mmrestripefs in a single cluster?</font><font size=1 color=#5f5f5f face="sans-serif"><br>Sent by:        </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><font size=3><br></font><hr noshade><font size=3><br><br></font><font size=2 face="Calibri"><br>I’m looking at migrating multiple file systems from one set of NSDs to
another. Assuming I put aside any potential IO bottlenecks, has anyone
tried running multiple “mmrestripefs” commands in a single cluster?<br> </font><font size=3 face="Calibri"><br>Bob Oesterlin<br>Sr Principal Storage Engineer, Nuance<br>507-269-0413</font><font size=3 face="Times New Roman"><br> </font><font size=3 face="Calibri"><br> </font><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font></tt><font size=3 color=blue><u><br></u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2 color=blue><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></tt></a><font size=3><br><br><br></font><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><br><BR>