<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">Can we confirm the requirement for disks per RG?  I have 4 RG, but only 6 x 3TB NVMe drives per box.<br class=""><div><br class=""><blockquote type="cite" class=""><div class="">On Jul 29, 2019, at 1:34 PM, Luis Bolinches <<a href="mailto:luis.bolinches@fi.ibm.com" class="">luis.bolinches@fi.ibm.com</a>> wrote:</div><br class="Apple-interchange-newline"><div class=""><meta http-equiv="content-type" content="text/html; charset=utf-8" class=""><div dir="auto" class="">Hi, from phone so sorry for typos. <div class=""><br class=""></div><div class="">I really think you should look into Spectrum Scale Erasure Code Edition (ECE) for this. </div><div class=""><br class=""></div><div class="">Sure you could do a RAID on each node as you mention here but that sounds like a lot of waste to me on storage capacity. Not to forget you get other goodies like end to end checksum and rapid rebuilds with ECE, among others. </div><div class=""><br class=""></div><div class="">Four servers is the minimum requirement for ECE (4+3p) and from top of my head 12 disk per RG, you are fine with both requirements. <br class=""><br class="">There is a presentation on ECE on the user group web page from London May 2019 were we talk about ECE. </div><div class=""><br class=""></div><div class="">And the ibm page of the product <a href="https://www.ibm.com/support/knowledgecenter/STXKQY_ECE_5.0.3/com.ibm.spectrum.scale.ece.v5r03.doc/b1lece_intro.htm" class="">https://www.ibm.com/support/knowledgecenter/STXKQY_ECE_5.0.3/com.ibm.spectrum.scale.ece.v5r03.doc/b1lece_intro.htm</a><br class=""><div dir="ltr" class="">--<div class="">Cheers</div></div><div dir="ltr" class=""><br class="">El 29 jul 2019, a las 19:06, David Johnson <<a href="mailto:david_johnson@brown.edu" class="">david_johnson@brown.edu</a>> escribió:<br class=""><br class=""></div><blockquote type="cite" class=""><div dir="ltr" class=""><span class="">We are planning a 5.0.x upgrade onto new hardware to make use of the new 5.x GPFS features.</span><br class=""><span class="">The goal is to use up to four NSD nodes for metadata, each one with 6 NVMe drives (to be determined</span><br class=""><span class="">whether we use Intel VROC for raid 5 or raid 1, or just straight disks).  </span><br class=""><span class=""></span><br class=""><span class="">So questions — </span><br class=""><span class="">Has anyone done system pool on shared nothing cluster?  How did you set it up?</span><br class=""><span class="">With default metadata replication set at 3, can you make use of four NSD nodes effectively?</span><br class=""><span class="">How would one design the location vectors and failure groups so that the system metadata is</span><br class=""><span class="">spread evenly across the four servers?</span><br class=""><span class=""></span><br class=""><span class="">Thanks,</span><br class=""><span class=""> — ddj</span><br class=""><span class="">Dave Johnson</span><br class=""><span class="">_______________________________________________</span><br class=""><span class="">gpfsug-discuss mailing list</span><br class=""><span class="">gpfsug-discuss at <a href="http://spectrumscale.org/" class="">spectrumscale.org</a></span><br class=""><span class=""><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" class="">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a> </span><br class=""><span class=""></span><br class=""></div></blockquote></div><br class="">
Ellei edellä ole toisin mainittu: / Unless stated otherwise above:<br class="">
Oy IBM Finland Ab<br class="">
PL 265, 00101 Helsinki, Finland<br class="">
Business ID, Y-tunnus: 0195876-3 <br class="">
Registered in Finland<br class="">
<br class="">
</div>
_______________________________________________<br class="">gpfsug-discuss mailing list<br class="">gpfsug-discuss at <a href="http://spectrumscale.org" class="">spectrumscale.org</a><br class=""><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" class="">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br class=""></div></blockquote></div><br class=""></body></html>