<div dir="auto">Okay if you have double parity why not just resize the disk.  And let gpfs recover using the parity.  And by the way there is a qos setting for maintenance operations and you can give that higher priority to make the recovery/deleting/adding operations quicker.  Also I don't know if this matters in gpfs but you may want to change the affinity for disk (distribute the primary/first node for each disk/Christmas tree it) to a different servers to spread the load. I don't know if gpfs will actually use that to distribute load, but worth checking.<div dir="auto"><br></div><div dir="auto">Alec</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Jun 20, 2022, 12:20 PM Jonathan Buzzard <<a href="mailto:jonathan.buzzard@strath.ac.uk">jonathan.buzzard@strath.ac.uk</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 20/06/2022 20:12, Jaime Pinto wrote:<br>
> <br>
> Thanks JAB and Luis<br>
> <br>
> I know, there are mmdelnsd, mmdeldisk, mmrestripefs and a few other <br>
> correlated mm* commands. They are very high-level in work in bulk <br>
> discreet fashion (I mean, considering the number of NSDs we have, each <br>
> deletion will shave 4% of the storage at once, that is too much).<br>
> <br>
<br>
Then you are goosed. An NSD cannot be changed in size once created and <br>
can only ever be in a file system or out a file system. The only way to <br>
change the size of a GPFS file system is by adding or removing NSD's.<br>
<br>
I am not a fan of how the DSS-G creates small numbers of huge NSD's. In <br>
fact the script sucks a *lot* from a systems admin perspective. Then <br>
again someone at IBM thought redeploying your entire OS every time you <br>
want to make a point release upgrade was a good idea.<br>
<br>
<br>
JAB.<br>
<br>
-- <br>
Jonathan A. Buzzard                         Tel: +44141-5483420<br>
HPC System Administrator, ARCHIE-WeSt.<br>
University of Strathclyde, John Anderson Building, Glasgow. G4 0NG<br>
<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://gpfsug.org" rel="noreferrer noreferrer" target="_blank">gpfsug.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss_gpfsug.org" rel="noreferrer noreferrer" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss_gpfsug.org</a><br>
</blockquote></div>