<div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div dir="ltr" >Hi Kevin,</div>
<div dir="ltr" > </div>
<div dir="ltr" >RAID5 is good when the read ratio of I/Os is 70% or more. About creating two RAID5 you need to consider the size of the disks and the time to rebuild the RAID in case of failure. Maybe a single RAID5 would be better because you have more disks working in the backend for a single RAID. I think since if you are using SSD disks the time to rebuild the RAID will always be fast. So you wouldn't need a RAID6. Maybe it's a good idea to read the manual of SAS RAID controller to see how long takes to rebuild the RAID in case of a failure.</div>
<div dir="ltr" >About the stripe size of controller vs block size in GPFS. This is just a guess, and you would need to do some performance test to make sure. You could consider the stripe width of RAID to be the block size of metadata. I think this is the best you can do.</div>
<div dir="ltr" >Break in several LUNs I consider a good idea for you don't have large queue length in the LUNs. Specially if the I/O profile is many I/O with small block size.</div>
<div dir="ltr" >About balance the LUNs over the NSD Servers is a best practice. Do not leave all the LUNs pointing to the first node. Just remember that when you create the NSDs, the device is always corresponding to the first node of servers. This can be laborous work. So to make the things easier I create two NSD stanza files. The first one pointing to the first node like this:</div>
<div dir="ltr" >%nsd device=/dev/mapper/mpatha</div>
<div dir="ltr" >    nsd=nsd001</div>
<div dir="ltr" >    servers=host1,host2,host3,host4</div>
<div dir="ltr" >    usage=metadataOnly</div>
<div dir="ltr" >    failureGroup=1</div>
<div dir="ltr" >    pool=system</div>
<div dir="ltr" > </div>
<div dir="ltr" >%nsd device=/dev/mapper/mpathb</div>
<div dir="ltr" >    nsd=nsd002</div>
<div dir="ltr" >    servers=</div>
<div dir="ltr" ><div>    servers=host1,host2,host3,host4</div>
<div>    usage=metadataOnly</div>
<div>    failureGroup=1</div>
<div>    pool=system</div>
<div> </div>
<div>Then I use this stanza file to create the nsds. And create a second stanza file:</div>
<div><div>%nsd </div>
<div>    nsd=nsd001</div>
<div>    servers=host1,host2,host3,host4</div>
<div>    usage=metadataOnly</div>
<div>    failureGroup=1</div>
<div>    pool=system</div>
<div> </div>
<div>%nsd </div>
<div>    nsd=nsd002</div>
<div>    servers=host2,host3,host4,host1</div>
<div><div>    usage=metadataOnly</div>
<div>    failureGroup=1</div>
<div>    pool=system</div></div>
<div> </div>
<div>And change with mmchnsd.</div></div></div>
<div dir="ltr" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div dir="ltr" ><div> </div>
<table cellpadding="0" cellspacing="0" style="border:0;table-layout:auto;white-space:normal;color:#5f5f5f;width:650px;font-size:7.2pt" width="650px" >        <tbody>                <tr>                        <td style="vertical-align: bottom;" >                        <div style="font-size:9pt" ><span style="font-size:1.000em;" >Abraços / Regards / Saludos,</span></div>
                        <p> </p>
                        <div class="vcard" style="margin:0 0 8px 0" ><span style="font-size:1.000em;" ><b class="fn n" style="color:#888888;font-size:12pt" ><span class="given-name" >Anderson</span> <span class="family-name" >Nobre</span></b><br>                        AIX & Power Consultant<br>                        Master Certified IT Specialist<br>                        IBM Systems Hardware Client Technical Team – IBM Systems Lab Services<br>                        <br>                        <img alt="community_general_lab_services" class="org" height="120" src="http://esign.webmaster.ibm.com/img/signature_lab_services.jpg" width="333" ></span></div>                        </td>                        <td> </td>                </tr>        </tbody></table>
<table cellpadding="0" cellspacing="0" style="border:0;table-layout:auto;white-space:normal;color:#5f5f5f;width:650px;font-size:7.2pt" width="650px" >        <tbody>                <tr>                        <td colspan="3" >                        <hr style="border:0;color:#696969;background-color:#696969;height:1px;" ></td>                </tr>                <tr>                        <td style="vertical-align: top;font-family:arial,helvetica,sans-serif" width="400px" ><span style="font-size:1.000em;" ><span class="tel" ><span style="color:#466BB0;font-weight:bold" ><abbr class="type" title="work" >Phone:</abbr></span> <span class="value" >55-19-2132-4317</span></span><br>                        <span style="color:#466BB0;font-weight:bold;font-style:7.2pt" >E-mail:</span> <a class="email" href="mailto:anobre@br.ibm.com" target="_blank"><span class="value" style="color:#5f5f5f" >anobre@br.ibm.com</span></a></span></td>                        <td align="right" style="vertical-align: top;font-family:arial,helvetica,sans-serif" width="150px" ><span style="font-size:1.000em;" ><img alt="IBM" class="org" src="http://esign.webmaster.ibm.com/img/ibm3.gif" ></span></td>                </tr>        </tbody></table></div></div></div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<blockquote data-history-content-modified="1" dir="ltr" style="border-left:solid #aaaaaa 2px; margin-left:5px; padding-left:5px; direction:ltr; margin-right:0px" >----- Original message -----<br>From: "Buterbaugh, Kevin L" <Kevin.Buterbaugh@Vanderbilt.Edu><br>Sent by: gpfsug-discuss-bounces@spectrumscale.org<br>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Cc:<br>Subject: [gpfsug-discuss] RAID type for system pool<br>Date: Wed, Sep 5, 2018 12:35 PM<br> <br><!--Notes ACF
<meta http-equiv="Content-Type" content="text/html; charset=utf8" >--> Hi All,
<div> </div>
<div>We are in the process of finalizing the purchase of some new storage arrays (so no sales people who might be monitoring this list need contact me) to life-cycle some older hardware.  One of the things we are considering is the purchase of some new SSD’s for our “/home” filesystem and I have a question or two related to that.</div>
<div> </div>
<div>Currently, the existing home filesystem has it’s metadata on SSD’s … two RAID 1 mirrors and metadata replication set to two.  However, the filesystem itself is old enough that it uses 512 byte inodes.  We have analyzed our users files and know that if we create a new filesystem with 4K inodes that a very significant portion of the files would now have their _data_ stored in the inode as well due to the files being 3.5K or smaller (currently all data is on spinning HD RAID 1 mirrors).</div>
<div> </div>
<div>Of course, if we increase the size of the inodes by a factor of 8 then we also need 8 times as much space to store those inodes.  Given that Enterprise class SSDs are still very expensive and our budget is not unlimited, we’re trying to get the best bang for the buck.</div>
<div> </div>
<div>We have always - even back in the day when our metadata was on spinning disk and not SSD - used RAID 1 mirrors and metadata replication of two.  However, we are wondering if it might be possible to switch to RAID 5?  Specifically, what we are considering doing is buying 8 new SSDs and creating two 3+1P RAID 5 LUNs (metadata replication would stay at two).  That would give us 50% more usable space than if we configured those same 8 drives as four RAID 1 mirrors.</div>
<div> </div>
<div>Unfortunately, unless I’m misunderstanding something, mean that the RAID stripe size and the GPFS block size could not match.  Therefore, even though we don’t need the space, would we be much better off to buy 10 SSDs and create two 4+1P RAID 5 LUNs?</div>
<div> </div>
<div>I’ve searched the mailing list archives and scanned the DeveloperWorks wiki and even glanced at the GPFS documentation and haven’t found anything that says “bad idea, Kevin”… ;-)</div>
<div> </div>
<div>Expanding on this further … if we just present those two RAID 5 LUNs to GPFS as NSDs then we can only have two NSD servers as primary for them.  So another thing we’re considering is to take those RAID 5 LUNs and further sub-divide them into a total of 8 logical volumes, each of which could be a GPFS NSD and therefore would allow us to have each of our 8 NSD servers be primary for one of them.  Even worse idea?!?  Good idea?</div>
<div> </div>
<div>Anybody have any better ideas???  ;-)</div>
<div> </div>
<div>Oh, and currently we’re on GPFS 4.2.3-10, but are also planning on moving to GPFS 5.0.1-x before creating the new filesystem.</div>
<div> </div>
<div>Thanks much…</div>
<div> </div>
<div><div><div>—</div>
<div>Kevin Buterbaugh - Senior System Administrator</div>
<div>Vanderbilt University - Advanced Computing Center for Research and Education</div>
<div><a href="mailto:Kevin.Buterbaugh@vanderbilt.edu" target="_blank">Kevin.Buterbaugh@vanderbilt.edu</a> - (615)875-9633</div>
<div> </div></div></div>
<div><font face="Default Monospace,Courier New,Courier,monospace" size="2" >_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></div></blockquote>
<div dir="ltr" > </div></div><BR>