<font size=2 face="sans-serif">Hi,</font><br><br><font size=2 face="sans-serif">Its implied in the tcp tuning suggestions
( as one needs bandwidth and latency in order to calculate the BDP).</font><br><font size=2 face="sans-serif">The overall theory is documented in
multiple places (tcp window, congestion control etc.) - nice place to start
is </font><a href="https://en.wikipedia.org/wiki/TCP_tuning"><font size=3 color=blue><u>https://en.wikipedia.org/wiki/TCP_tuning</u></font></a><font size=3></font><font size=2 face="sans-serif">.</font><br><font size=2 face="sans-serif">I tend to use this calculator in order
to find out the right values </font><a href="https://www.switch.ch/network/tools/tcp_throughput/"><font size=3 color=blue><u>https://www.switch.ch/network/tools/tcp_throughput/</u></font></a><font size=3></font><br><br><font size=2 face="sans-serif">The parallel IO and multiple mounts
are on top of the above - not instead ( even though it could be seen that
it makes things better - but multiple of the small numbers we're getting
initially).</font><br><font size=2 face="sans-serif"><br>Regards,<br><br>Tomer Perry<br>Scalable I/O Development (Spectrum Scale)<br>email: tomp@il.ibm.com<br>1 Azrieli Center, Tel Aviv 67021, Israel<br>Global Tel:    +1 720 3422758<br>Israel Tel:      +972 3 9188625<br>Mobile:         +972 52 2554625<br></font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">"Luis Bolinches"
<luis.bolinches@fi.ibm.com></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">"gpfsug main discussion
list" <gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Cc:      
 </font><font size=1 face="sans-serif">Jake Carrol <jake.carroll@uq.edu.au></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">22/02/2020 07:56</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">[EXTERNAL] Re:
[gpfsug-discuss] Spectrum Scale Ganesha NFS multi threaded AFM?</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><font size=3>Hi</font><br><br><font size=3>While I agree with what es already mention here and it
is really spot on, I think Andi missed to reveal what is the latency between
sites. Latency is as key if not more than ur pipe link speed to throughput
results. <br></font><br><font size=3>--</font><br><font size=3>Cheers</font><br><br><font size=3>On 22. Feb 2020, at 3.08, Andrew Beattie <abeattie@au1.ibm.com>
wrote:<br></font><br><font size=3>Andi,</font><br><br><font size=3>You may want to reach out to Jake Carrol at the University
of Queensland,</font><br><br><font size=3>When UQ first started exploring with AFM, and global AFM
transfers they did extensive testing around tuning for the NFS stack.</font><br><br><font size=3>From memory they got to a point where they could pretty
much saturate a 10GBit link, but they had to do a lot of tuning to get
there.</font><br><br><font size=3>We are now effectively repeating the process, with AFM
but using 100GB links, which brings about its own sets of interesting challenges.</font><br><br><br><br><br><br><font size=3>Regards</font><br><br><font size=3>Andrew<br></font><br><font size=3>Sent from my iPhone</font><br><br><font size=3>On 22 Feb 2020, at 09:32, Andi Christiansen <andi@christiansen.xxx>
wrote:<br></font><br><font size=3>Hi,</font><br><br><font size=3>Thanks for answering!</font><br><br><font size=3>Yes possible, I’m not too much into NFS and AFM so I
might have used the wrong term..</font><br><br><font size=3>I looked at what you suggested (very interesting reading)
and setup multiple cache gateways to our home nfs server with the new afmParallelMount
feature. It was as I suspected, for each gateway that does a write it gets
50-60MB/s bandwidth so although this utilizes more when adding it up (4
x gateways = 4 x 50-60MB/s) I’m still confused to why one server with
one link cannot utilize more than the 50-60MB/s on 10Gb links ? Even 200-240MB/s
is much slower than a regular 10Gbit interface.</font><br><br><font size=3>Best Regards </font><br><font size=3>Andi Christiansen</font><br><br><font size=3><br></font><br><font size=3>Sendt fra min iPhone</font><br><font size=3><br>Den 21. feb. 2020 kl. 18.25 skrev Tomer Perry <</font><a href="mailto:TOMP@il.ibm.com"><font size=3 color=blue><u>TOMP@il.ibm.com</u></font></a><font size=3>>:<br></font><br><font size=2 face="sans-serif">Hi,</font><font size=3><br></font><font size=2 face="sans-serif"><br>I believe the right term is not multithreaded, but rather multistream.
NFS will submit multiple requests in parallel, but without using large
enough window you won't be able to get much of each stream.<br>So, the first place to look is here: </font><a href="https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.4/com.ibm.spectrum.scale.v5r04.doc/bl1adm_tuningbothnfsclientnfsserver.htm"><font size=3 color=blue><u>https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.4/com.ibm.spectrum.scale.v5r04.doc/bl1adm_tuningbothnfsclientnfsserver.htm</u></font></a><font size=2 face="sans-serif">- and while its talking about "Kernel NFS" the same apply to
any TCP socket based communication ( including Ganesha). I tend to test
the performance using iperf/nsdperf ( just make sure to use single stream)
in order to see what is the expected maximum performance.<br>After that, you can start looking into "how can I get multiple streams?"
- for that there are two options:</font><font size=3 color=blue><u><br></u></font><a href="https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.4/com.ibm.spectrum.scale.v5r04.doc/bl1ins_paralleldatatransfersafm.htm"><font size=3 color=blue><u>https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.4/com.ibm.spectrum.scale.v5r04.doc/bl1ins_paralleldatatransfersafm.htm</u></font></a><font size=2 face="sans-serif"><br>and</font><font size=3 color=blue><u><br></u></font><a href="https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.4/com.ibm.spectrum.scale.v5r04.doc/b1lins_afmparalleldatatransferwithremotemounts.htm"><font size=3 color=blue><u>https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.4/com.ibm.spectrum.scale.v5r04.doc/b1lins_afmparalleldatatransferwithremotemounts.htm</u></font></a><font size=3><br></font><font size=2 face="sans-serif"><br>The former enhance large file transfer, while the latter ( new in 5.0.4)
will help with multiple small files as well.</font><font size=3><br><br></font><font size=2 face="sans-serif"><br><br>Regards,<br><br>Tomer Perry<br>Scalable I/O Development (Spectrum Scale)<br>email: </font><a href="mailto:tomp@il.ibm.com"><font size=2 color=blue face="sans-serif"><u>tomp@il.ibm.com</u></font></a><font size=2 face="sans-serif"><br>1 Azrieli Center, Tel Aviv 67021, Israel<br>Global Tel:    +1 720 3422758<br>Israel Tel:      +972 3 9188625<br>Mobile:         +972 52 2554625</font><font size=3><br><br><br><br></font><font size=1 color=#5f5f5f face="sans-serif"><br>From:        </font><font size=1 face="sans-serif">Andi
Christiansen <</font><a href="mailto:andi@christiansen.xxx"><font size=1 color=blue face="sans-serif"><u>andi@christiansen.xxx</u></font></a><font size=1 face="sans-serif">></font><font size=1 color=#5f5f5f face="sans-serif"><br>To:        </font><font size=1 face="sans-serif">"</font><a href="mailto:gpfsug-discuss@spectrumscale.org"><font size=1 color=blue face="sans-serif"><u>gpfsug-discuss@spectrumscale.org</u></font></a><font size=1 face="sans-serif">"
<</font><a href="mailto:gpfsug-discuss@spectrumscale.org"><font size=1 color=blue face="sans-serif"><u>gpfsug-discuss@spectrumscale.org</u></font></a><font size=1 face="sans-serif">></font><font size=1 color=#5f5f5f face="sans-serif"><br>Date:        </font><font size=1 face="sans-serif">21/02/2020
15:25</font><font size=1 color=#5f5f5f face="sans-serif"><br>Subject:        </font><font size=1 face="sans-serif">[EXTERNAL]
[gpfsug-discuss] Spectrum Scale Ganesha NFS multi threaded AFM?</font><font size=1 color=#5f5f5f face="sans-serif"><br>Sent by:        </font><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org"><font size=1 color=blue face="sans-serif"><u>gpfsug-discuss-bounces@spectrumscale.org</u></font></a><font size=3><br></font><hr noshade><font size=3><br><br><br>Hi all, <br><br>i have searched the internet for a good time now with no answer to this..
So i hope someone can tell me if this is possible or not. <br><br>We use NFS from our Cluster1 to a AFM enabled fileset on Cluster2. That
is working as intended. But when AFM transfers files from one site to another
it caps out at about 5-700Mbit/s which isnt impressive.. The sites are
connected on 10Gbit links but the distance/round-trip is too far/high to
use the NSD protocol with AFM. <br><br>On the cluster where the fileset is exported we can only see 1 session
against the client cluster, is there a way to either tune Ganesha or AFM
to use more threads/sessions? <br><br>We have about 7.7Gbit bandwidth between the sites from the 10Gbit links
and with multiple NFS sessions we can reach the maximum bandwidth(each
using about 50-60MBits per session). <br><br>Best Regards <br>Andi Christiansen </font><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at </font></tt><a href="http://spectrumscale.org"><tt><font size=2 color=blue><u>spectrumscale.org</u></font></tt></a><font size=3 color=blue><u><br></u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2 color=blue><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></tt></a><font size=3><br><br><br></font><br><br><font size=3><br>Ellei edellä ole toisin mainittu: / Unless stated otherwise above:<br>Oy IBM Finland Ab<br>PL 265, 00101 Helsinki, Finland<br>Business ID, Y-tunnus: 0195876-3 <br>Registered in Finland<br></font><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><br><br><BR>