<font face="Verdana,Arial,Helvetica,sans-serif" size="2"> <span><div>Please review the CES limits in the FAQ which states</div><div><br></div><div><div class="body"><dl class="ibm-padding-top-1"><dt class="dlterm"><a href="https://www.ibm.com/support/knowledgecenter/STXKQY/gpfsclustersfaq.html?view=kc#gpfsclustersfaqAugust2016-gen4__maxprotoq"><strong>Q5.2:</strong></a></dt><dd class="dlentry"><strong>What are some scaling considerations for the
protocols function?</strong></dd><dt class="dlterm"><strong>A5.2:</strong></dt><dd class="dlentry">Scaling considerations for the protocols function include:
<ul class="ibm-colored-list ibm-textcolor-gray-80"><li>The number of protocol nodes. 
<p>If you are using SMB
in any combination of other protocols you can configure only up to
16 protocol nodes. This is a hard limit and SMB cannot be enabled
if there are more protocol nodes. If only NFS and Object are enabled,
you can have 32 nodes configured as protocol nodes.</p></li><li>The number of client connections. 
<p>A maximum of 3,000 SMB connections
is recommended per protocol node with a maximum of 20,000 SMB connections
per cluster. A maximum of 4,000 NFS connections per protocol node
is recommended. A maximum of 2,000 Object connections per protocol
nodes is recommended. The maximum number of connections depends on
the amount of memory configured and sufficient CPU. We recommend a
minimum of 64GB of memory for only Object or only NFS use cases. If
you have multiple protocols enabled or if you have SMB enabled we
recommend 128GB of memory on the system.</p></li></ul><div><a href="https://www.ibm.com/support/knowledgecenter/STXKQY/gpfsclustersfaq.html?view=kc#maxproto" target="_blank">https://www.ibm.com/support/knowledgecenter/STXKQY/gpfsclustersfaq.html?view=kc#maxproto</a><br></div></dd></dl>
</div></div>Edward L. Boyd ( Ed )<br>IBM Certified Client Technical Specialist, Level 2 Expert<br>Open Foundation, Master Certified Technical Specialist<br>IBM Systems, Storage Solutions<br>US Federal<br>407-271-9210 Office / Cell / Office / Text<br><a href="mailto:eboyd@us.ibm.com">eboyd@us.ibm.com</a> email</span><br><br><font size="2" face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" color="#000000"><font color="#990099"><a href="mailto:-----gpfsug-discuss-bounces@spectrumscale.org" target="_blank">-----gpfsug-discuss-bounces@spectrumscale.org</a> wrote: -----</font><div class="iNotesHistory" style="padding-left:5px;"><div style="padding-right:0px;padding-left:5px;border-left:solid black 2px;">To: <a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank">gpfsug-discuss@spectrumscale.org</a><br>From: <a href="mailto:gpfsug-discuss-request@spectrumscale.org" target="_blank">gpfsug-discuss-request@spectrumscale.org</a><br>Sent by: <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank">gpfsug-discuss-bounces@spectrumscale.org</a><br>Date: 12/10/2020 07:00AM<br>Subject: [EXTERNAL] gpfsug-discuss Digest, Vol 107, Issue 13<br><br><div><font size="2" face="Courier New,Courier,monospace">Send gpfsug-discuss mailing list submissions to<br>        <a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank">gpfsug-discuss@spectrumscale.org</a><br><br>To subscribe or unsubscribe via the World Wide Web, visit<br>        <a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a> <br>or, via email, send a message with subject or body 'help' to<br>        <a href="mailto:gpfsug-discuss-request@spectrumscale.org" target="_blank">gpfsug-discuss-request@spectrumscale.org</a><br><br>You can reach the person managing the list at<br>        <a href="mailto:gpfsug-discuss-owner@spectrumscale.org" target="_blank">gpfsug-discuss-owner@spectrumscale.org</a><br><br>When replying, please edit your Subject line so it is more specific<br>than "Re: Contents of gpfsug-discuss digest..."<br><br><br>Today's Topics:<br><br>   1. Protocol limits (leslie elliott)<br>   2. Re: Protocol limits (Jan-Frode Myklebust)<br><br><br>----------------------------------------------------------------------<br><br>Message: 1<br>Date: Thu, 10 Dec 2020 08:45:22 +1000<br>From: leslie elliott <<a href="mailto:leslie.james.elliott@gmail.com" target="_blank">leslie.james.elliott@gmail.com</a>><br>To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank">gpfsug-discuss@spectrumscale.org</a>><br>Subject: [gpfsug-discuss] Protocol limits<br>Message-ID:<br>        <<a href="mailto:CANBv+tsnwzTH5796xMfpLmWc-aY5=kiHHLaacx-fzGdBLuPqgw@mail.gmail.com" target="_blank">CANBv+tsnwzTH5796xMfpLmWc-aY5=kiHHLaacx-fzGdBLuPqgw@mail.gmail.com</a>><br>Content-Type: text/plain; charset="utf-8"<br><br>hi all<br><br>we run a large number of shares from CES servers connected to a single<br>scale cluster<br>we understand the current supported limit is 1000 SMB shares, we run the<br>same number of NFS shares<br><br>we also understand that using external CES cluster to increase that limit<br>is not supported based on the documentation, we use the same authentication<br>for all shares, we do have additional use cases for sharing where this<br>pathway would be attractive going forward<br><br>so the question becomes if we need to run 20000 SMB and NFS shares off a<br>scale cluster is there any hardware design we can use to do this whilst<br>maintaining support<br><br>I have submitted a support request to ask if this can be done but thought I<br>would ask the collective good if this has already been solved<br><br>thanks<br><br>leslie<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <<a href="http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20201210/a460a862/attachment-0001.html">http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20201210/a460a862/attachment-0001.html</a> ><br><br>------------------------------<br><br>Message: 2<br>Date: Thu, 10 Dec 2020 00:21:03 +0100<br>From: Jan-Frode Myklebust <<a href="mailto:janfrode@tanso.net" target="_blank">janfrode@tanso.net</a>><br>To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank">gpfsug-discuss@spectrumscale.org</a>><br>Subject: Re: [gpfsug-discuss] Protocol limits<br>Message-ID:<br>        <<a href="mailto:CAHwPatj8xi5Bez7M+GpqAGuOXy_P+qW87MJ4UF7Z2NxR1aeHhQ@mail.gmail.com" target="_blank">CAHwPatj8xi5Bez7M+GpqAGuOXy_P+qW87MJ4UF7Z2NxR1aeHhQ@mail.gmail.com</a>><br>Content-Type: text/plain; charset="utf-8"<br><br>My understanding of these limits are that they are to limit the<br>configuration files from becoming too large, which makes<br>changing/processing them somewhat slow.<br><br>For SMB shares, you might be able to limit the number of configured shares<br>by using wildcards in the config (%U). These wildcarded entries counts as<br>one share.. Don?t know if simimar tricks can be done for NFS..<br><br><br><br>  -jf<br><br>ons. 9. des. 2020 kl. 23:45 skrev leslie elliott <<br><a href="mailto:leslie.james.elliott@gmail.com" target="_blank">leslie.james.elliott@gmail.com</a>>:<br><br>><br>> hi all<br>><br>> we run a large number of shares from CES servers connected to a single<br>> scale cluster<br>> we understand the current supported limit is 1000 SMB shares, we run the<br>> same number of NFS shares<br>><br>> we also understand that using external CES cluster to increase that limit<br>> is not supported based on the documentation, we use the same authentication<br>> for all shares, we do have additional use cases for sharing where this<br>> pathway would be attractive going forward<br>><br>> so the question becomes if we need to run 20000 SMB and NFS shares off a<br>> scale cluster is there any hardware design we can use to do this whilst<br>> maintaining support<br>><br>> I have submitted a support request to ask if this can be done but thought<br>> I would ask the collective good if this has already been solved<br>><br>> thanks<br>><br>> leslie<br>> _______________________________________________<br>> gpfsug-discuss mailing list<br>> gpfsug-discuss at spectrumscale.org<br>> <a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a> <br>><br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <<a href="http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20201210/4744cdc0/attachment-0001.html">http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20201210/4744cdc0/attachment-0001.html</a> ><br><br>------------------------------<br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a> <br><br><br>End of gpfsug-discuss Digest, Vol 107, Issue 13<br>***********************************************<br><br></font></div></div></div></font></font><BR>