<div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10pt" ><div dir="ltr" >Its also worth remembering that if you have too many vdisks, that you will potentially not get the full performance of all the drives in the RG</div>
<div dir="ltr" >I think from memory you need to have a minimum of 5% of the RG as the size of the vdisk (20 Vdisks per RG) to ensure that you spread the write of the data across</div>
<div dir="ltr" >all the drives in the RG, this guarantees the best performance for each Vdisk</div>
<div dir="ltr" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt" ><div dir="ltr" style="margin-top: 20px;" ><div style="font-size: 12pt; font-weight: bold; font-family: sans-serif; color: #7C7C5F;" >Andrew Beattie</div>
<div style="font-size: 10pt; font-weight: bold; font-family: sans-serif;" >File and Object Storage Technical Specialist - A/NZ</div>
<div style="font-size: 10pt; font-weight: bold; font-family: sans-serif;" >IBM Systems - Storage</div>
<div style="font-size: 8pt; font-family: sans-serif; margin-top: 10px;" ><div><span style="font-weight: bold; color: #336699;" >Phone: </span>614-2133-7927</div>
<div><span style="font-weight: bold; color: #336699;" >E-mail: </span><a href="mailto:abeattie@au1.ibm.com" style="color: #555">abeattie@au1.ibm.com</a></div></div></div></div></div></div></div></div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<blockquote data-history-content-modified="1" dir="ltr" style="border-left:solid #aaaaaa 2px; margin-left:5px; padding-left:5px; direction:ltr; margin-right:0px" >----- Original message -----<br>From: "Olaf Weiser" <olaf.weiser@de.ibm.com><br>Sent by: gpfsug-discuss-bounces@spectrumscale.org<br>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Cc:<br>Subject: [EXTERNAL] Re: [gpfsug-discuss] Max number of vdisks in a recovery group - is it 64?<br>Date: Fri, Dec 13, 2019 10:20 PM<br> <br><font size="2" face="sans-serif" >Hallo Heiner, Stefan, </font><br><br><font size="2" face="sans-serif" >thx for this heads up ..</font><br><font size="2" face="sans-serif" >we know ... it's all GNR .. so the answer is a bit different, depending on the scenario </font><br><font size="2" face="sans-serif" >on the regular building blocks..  the RG Layout (2 RGs per BB) .. is different from the scale out ECE (#4+ nodes, one RG )  </font><br><br><font size="2" face="sans-serif" >The absolute max #vdisk is ( I think )  512  per RG  - but I would <b>not </b>recommend to go that far , when designing a data layout .. if ever possible.. </font><br><font size="2" face="sans-serif" >we can have a short talk next week on that.. </font><br><font size="2" face="sans-serif" >Try to keep the #vdisk as small as you can is the better approach .. </font><br><br><br><br><br><font size="1" face="sans-serif" color="#5f5f5f" >From:        </font><font size="1" face="sans-serif" >"Dietrich, Stefan" <stefan.dietrich@desy.de></font><br><font size="1" face="sans-serif" color="#5f5f5f" >To:        </font><font size="1" face="sans-serif" >gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><br><font size="1" face="sans-serif" color="#5f5f5f" >Date:        </font><font size="1" face="sans-serif" >12/13/2019 02:26 AM</font><br><font size="1" face="sans-serif" color="#5f5f5f" >Subject:        </font><font size="1" face="sans-serif" >[EXTERNAL] Re: [gpfsug-discuss] Max number of vdisks in a recovery group - is it        64?</font><br><font size="1" face="sans-serif" color="#5f5f5f" >Sent by:        </font><font size="1" face="sans-serif" >gpfsug-discuss-bounces@spectrumscale.org</font>
<hr noshade="noshade" ><br><br><br><tt><font size="3" face="" >Hello Heiner,<br><br>the 64 vdisk limit per RG is still present in the latest ESS docs:</font></tt><br><a href="https://www.ibm.com/support/knowledgecenter/SSYSP8_5.3.5/com.ibm.spectrum.scale.raid.v5r04.adm.doc/bl1adv_vdisks.htm" target="_blank"><tt><font size="3" face="" >https://www.ibm.com/support/knowledgecenter/SSYSP8_5.3.5/com.ibm.spectrum.scale.raid.v5r04.adm.doc/bl1adv_vdisks.htm</font></tt></a><br><br><tt><font size="3" face="" >For the other questions, no idea.<br><br>Regards,<br>Stefan<br><br>----- Original Message -----<br>> From: "Billich Heinrich Rainer (ID SD)" <heinrich.billich@id.ethz.ch><br>> To: "gpfsug main discussion list" <gpfsug-discuss@spectrumscale.org><br>> Sent: Thursday, December 12, 2019 3:26:31 PM<br>> Subject: [gpfsug-discuss] Max number of vdisks in a recovery group - is it                 64?<br><br>> Hello,<br>><br>> I remember that a GNR/ESS  recovery group can hold up to 64 vdisks, but I can’t<br>> find a citation to proof it. Now I wonder if  64 is the actual limit? And where<br>> is it documented? And did the limit change with versions? Thank you. I did<br>> spend quite some time searching the documentation, no luck .. maybe you know.<br>><br>> We run ESS 5.3.4.1 and the recovery groups have current/allowable  format<br>> version 5.0.0.0<br>><br>> Thank you,<br>><br>> Heiner<br>> --<br>> =======================<br>> Heinrich Billich<br>> ETH Zürich<br>> Informatikdienste<br>> Tel.: +41 44 632 72 56<br>> heinrich.billich@id.ethz.ch<br>> ========================<br>><br>><br>><br>><br>> _______________________________________________<br>> gpfsug-discuss mailing list<br>> gpfsug-discuss at spectrumscale.org<br>> </font></tt><tt><font size="3" face="" ><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></tt><br><tt><font size="3" face="" >_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font></tt><br><tt><font size="3" face="" ><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></tt><br><br><br><br> 
<div><font size="2" face="Default Monospace,Courier New,Courier,monospace" >_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a> </font></div></blockquote>
<div dir="ltr" > </div></div><BR>