<html><head><meta http-equiv="content-type" content="text/html; charset=utf-8"></head><body dir="auto">Jonathan,<div><br></div><div>You need to create vdisk sets which will create multiple vdisks, you can then assign vdisk sets to your filesystem. (Assigning multiple vdisks at a time)</div><div><br></div><div>Things to watch - free space calculations are more complex as it’s building multiple vdisks under the cover using multiple raid parameters</div><div><br></div><div>Also it’s worth assuming a 10% reserve or approx - drive per disk shelf for rebuild space </div><div><br></div><div><br><div><br></div><div>Mmvdisk vdisk set ... insert parameters</div><div><br></div><div><a href="https://www.ibm.com/support/knowledgecenter/mk/SSYSP8_5.3.2/com.ibm.spectrum.scale.raid.v5r02.adm.doc/bl8adm_mmvdisk.htm">https://www.ibm.com/support/knowledgecenter/mk/SSYSP8_5.3.2/com.ibm.spectrum.scale.raid.v5r02.adm.doc/bl8adm_mmvdisk.htm</a><br><br><div dir="ltr">Sent from my iPhone</div><div dir="ltr"><br><blockquote type="cite">On 1 Mar 2021, at 21:45, Jonathan Buzzard <jonathan.buzzard@strath.ac.uk> wrote:<br><br></blockquote></div><blockquote type="cite"><div dir="ltr"><span>On 01/03/2021 09:08, Luis Bolinches wrote:</span><br><blockquote type="cite"><span>Hi</span><br></blockquote><blockquote type="cite"><span></span><br></blockquote><blockquote type="cite"><span>There other reasons to have more than 1. It is management of those. When </span><br></blockquote><blockquote type="cite"><span>you have to add or remove NSDs of a FS having more than 1 makes it </span><br></blockquote><blockquote type="cite"><span>possible to empty some space and manage those in and out. Manually but </span><br></blockquote><blockquote type="cite"><span>possible. If you have one big NSD or even 1 per enclosure it might </span><br></blockquote><blockquote type="cite"><span>difficult or even not possible depending the number of enclosures and FS </span><br></blockquote><blockquote type="cite"><span>utilization.</span><br></blockquote><blockquote type="cite"><span></span><br></blockquote><blockquote type="cite"><span>Starting some ESS version (not DSS, cant comment on that) that I do not </span><br></blockquote><blockquote type="cite"><span>recall but in the last 6 months, we have change the default (for those </span><br></blockquote><blockquote type="cite"><span>that use the default) to 4 NSDs per enclosure for ESS 5000. There is no </span><br></blockquote><blockquote type="cite"><span>impact on performance either way on ESS, we tested it. But management of </span><br></blockquote><blockquote type="cite"><span>those on the long run should be easier.</span><br></blockquote><span>Question how does one create a none default number of vdisks per </span><br><span>enclosure then?</span><br><span></span><br><span>I tried creating a stanza file and then doing mmcrvdisk but it was not </span><br><span>happy, presumably because of the "new style" recovery group management</span><br><span></span><br><span>mmcrvdisk: [E] This command is not supported by recovery groups under </span><br><span>management of mmvdisk.</span><br><span></span><br><span></span><br><span></span><br><span></span><br><span>JAB.</span><br><span></span><br><span>-- </span><br><span>Jonathan A. Buzzard                         Tel: +44141-5483420</span><br><span>HPC System Administrator, ARCHIE-WeSt.</span><br><span>University of Strathclyde, John Anderson Building, Glasgow. G4 0NG</span><br><span>_______________________________________________</span><br><span>gpfsug-discuss mailing list</span><br><span>gpfsug-discuss at spectrumscale.org</span><br><span>https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=STXkGEO2XATS_s2pRCAAh2wXtuUgwVcx1XjUX7ELNdk&m=9HlRHByoByQcM0mY0elL-l4DgA6MzHkAGzE70Rl2p2E&s=eWRfWGpdZB-PZ_InCCjgmdQOCy6rgWj9Oi3TGGA38yY&e= </span><br><span></span><br></div></blockquote></div></div><BR>
</body></html>