<font face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" size="2"> Pascal,<br><br>The Spectrum Scale FAQ lists what is and is not supported, in Table 7:<br><a target="_blank" href="https://www.ibm.com/support/knowledgecenter/STXKQY/gpfsclustersfaq.html">https://www.ibm.com/support/knowledgecenter/STXKQY/gpfsclustersfaq.html</a><br><br>LROC is available on all Editions; in the notes to Table 7 is the clarification:<br>     <br>       "1. Functions which are supported by all Editions on all platforms are not listed in the
matrix."<br><span><font face="Courier New,Courier,monospace" size="2"><br></font></span><br><span><font face="Courier New,Courier,monospace" size="2">> by looking at the documentation it is not clear whether Spectrum Scale </font></span><br><span><font face="Courier New,Courier,monospace" size="2">> Express edition supports the LROC feature. As far as I understand it, </font></span><br><span><font face="Courier New,Courier,monospace" size="2">> the client license is sufficient, however no word is given about which </font></span><br><span><font face="Courier New,Courier,monospace" size="2">> edition supports that feature.</font></span><br><span></span><br><span><font face="Courier New,Courier,monospace" size="2">> Any idea and/or pointer?</font></span><br><span></span><br><span><font face="Courier New,Courier,monospace" size="2">> Many thanks,</font></span><br><span></span><br><span><font face="Courier New,Courier,monospace" size="2">> Pascal</font></span><br><blockquote><span></span></blockquote><span><font face="Courier New,Courier,monospace" size="2"><br><br></font><font face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" size="2"><div><font size="3"><b>Keith D. Ball, PhD</b></font><br>Client Technical Specialist, US Federal<br>IBM Systems, Software Defined Storage Solutions (SDSS)<br><i>Spectrum Scale (GPFS) - Spectrum Storage Software - Cleversafe - Elastic Storage Server <br>Platform Computing - High-Performance Cloud Services</i><br><b><font face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" size="2">IBM Certified Deployment Professional - Spectrum Scale V4.1.1</font></b><br><hr>540-557-7851 cell<br><a target="_blank" href="mailto:kdball@us.ibm.com">kdball@us.ibm.com</a><br><hr><br></div></font></span><br><br><font color="#990099"><a target="_blank" href="mailto:-----gpfsug-discuss-bounces@spectrumscale.org">-----gpfsug-discuss-bounces@spectrumscale.org</a> wrote: -----</font><div class="iNotesHistory" style="padding-left:5px;"><div style="padding-right:0px;padding-left:5px;border-left:solid black 2px;">To: <a target="_blank" href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a><br>From: <a target="_blank" href="mailto:gpfsug-discuss-request@spectrumscale.org">gpfsug-discuss-request@spectrumscale.org</a><br>Sent by: <a target="_blank" href="mailto:gpfsug-discuss-bounces@spectrumscale.org">gpfsug-discuss-bounces@spectrumscale.org</a><br>Date: 11/09/2016 01:05PM<br>Subject: gpfsug-discuss Digest, Vol 58, Issue 12<br><br><div><font face="Courier New,Courier,monospace" size="2">Send gpfsug-discuss mailing list submissions to<br>        <a target="_blank" href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a><br><br>To subscribe or unsubscribe via the World Wide Web, visit<br>        <a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>or, via email, send a message with subject or body 'help' to<br>        <a target="_blank" href="mailto:gpfsug-discuss-request@spectrumscale.org">gpfsug-discuss-request@spectrumscale.org</a><br><br>You can reach the person managing the list at<br>        <a target="_blank" href="mailto:gpfsug-discuss-owner@spectrumscale.org">gpfsug-discuss-owner@spectrumscale.org</a><br><br>When replying, please edit your Subject line so it is more specific<br>than "Re: Contents of gpfsug-discuss digest..."<br><br><br>Today's Topics:<br><br>   1. LROC and Spectrum Scale Express (Pascal Jermini)<br>   2. Tuning AFM for high throughput/high IO over        _really_ long<br>      distances (Jake Carroll)<br>   3. Re: Tuning AFM for high throughput/high IO over _really_ long<br>      distances (Jan-Frode Myklebust)<br><br><br>----------------------------------------------------------------------<br><br><br><br>------------------------------<br><br>Message: 2<br>Date: Wed, 9 Nov 2016 17:39:05 +0000<br>From: Jake Carroll <<a target="_blank" href="mailto:jake.carroll@uq.edu.au">jake.carroll@uq.edu.au</a>><br>To: "<a target="_blank" href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a>"<br>        <<a target="_blank" href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a>><br>Subject: [gpfsug-discuss] Tuning AFM for high throughput/high IO over<br>        _really_ long distances<br>Message-ID: <<a target="_blank" href="mailto:83652C3D-0802-4CC2-B636-9FAA31EF5AF0@uq.edu.au">83652C3D-0802-4CC2-B636-9FAA31EF5AF0@uq.edu.au</a>><br>Content-Type: text/plain; charset="utf-8"<br><br>Hi.<br><br>I?ve got an GPFS to GPFS AFM cache/home (IW) relationship set up over a really long distance. About 180ms of latency between the two clusters and around 13,000km of optical path. Fortunately for me, I?ve actually got near theoretical maximum IO over the NIC?s between the clusters and I?m iPerf?ing at around 8.90 to 9.2Gbit/sec over a 10GbE circuit. All MTU9000 all the way through.<br><br>Anyway ? I?m finding my AFM traffic to be dragging its feet and I don?t really understand why that might be. I?ve verified the links and transports ability as I said above with iPerf, and CERN?s FDT to near 10Gbit/sec.<br><br>I also verified the clusters on both sides in terms of disk IO and they both seem easily capable in IOZone and IOR tests of multiple GB/sec of throughput.<br><br>So ? my questions:<br><br><br>1.       Are there very specific tunings AFM needs for high latency/long distance IO?<br><br>2.       Are there very specific NIC/TCP-stack tunings (beyond the type of thing we already have in place) that benefits AFM over really long distances and high latency?<br><br>3.       We are seeing on the ?cache? side really lazy/sticky ?ls ?als? in the home mount. It sometimes takes 20 to 30 seconds before the command line will report back with a long listing of files. Any ideas why it?d take that long to get a response from ?home?.<br><br>We?ve got our TCP stack setup fairly aggressively, on all hosts that participate in these two clusters.<br><br>ethtool -C enp2s0f0 adaptive-rx off<br>ifconfig enp2s0f0 txqueuelen 10000<br>sysctl -w net.core.rmem_max=536870912<br>sysctl -w net.core.wmem_max=536870912<br>sysctl -w net.ipv4.tcp_rmem="4096 87380 268435456"<br>sysctl -w net.ipv4.tcp_wmem="4096 65536 268435456"<br>sysctl -w net.core.netdev_max_backlog=250000<br>sysctl -w net.ipv4.tcp_congestion_control=htcp<br>sysctl -w net.ipv4.tcp_mtu_probing=1<br><br>I modified a couple of small things on the AFM ?cache? side to see if it?d make a difference such as:<br><br>mmchconfig afmNumWriteThreads=4<br>mmchconfig afmNumReadThreads=4<br><br>But no difference so far.<br><br>Thoughts would be appreciated. I?ve done this before over much shorter distances (30Km) and I?ve flattened a 10GbE wire without really tuning?anything. Are my large in-flight-packets numbers/long-time-to-acknowledgement semantics going to hurt here? I really thought AFM might be well designed for exactly this kind of work at long distance *and* high throughput ? so I must be missing something!<br><br>-jc<br><br><br><br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <<a href="http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20161109/d4f4d9a7/attachment-0001.html">http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20161109/d4f4d9a7/attachment-0001.html</a>><br><br>------------------------------<br><br>Message: 3<br>Date: Wed, 09 Nov 2016 18:05:21 +0000<br>From: Jan-Frode Myklebust <<a target="_blank" href="mailto:janfrode@tanso.net">janfrode@tanso.net</a>><br>To: "<a target="_blank" href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a>"<br>        <<a target="_blank" href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a>><br>Subject: Re: [gpfsug-discuss] Tuning AFM for high throughput/high IO<br>        over _really_ long distances<br>Message-ID:<br>        <<a target="_blank" href="mailto:CAHwPathy=4z=jDXN5qa3ys+Z-_7n=tsJh7cZ3ZKzFwQMG34zwg@mail.gmail.com">CAHwPathy=4z=jDXN5qa3ys+Z-_7n=tsJh7cZ3ZKzFwQMG34zwg@mail.gmail.com</a>><br>Content-Type: text/plain; charset="utf-8"<br><br>Mostly curious, don't have experience in such environments, but ... Is this<br>AFM over NFS or NSD protocol? Might be interesting to try the other option<br>-- and also check how nsdperf performs over such distance/latency.<br><br><br><br>-jf<br>ons. 9. nov. 2016 kl. 18.39 skrev Jake Carroll <<a target="_blank" href="mailto:jake.carroll@uq.edu.au">jake.carroll@uq.edu.au</a>>:<br><br>> Hi.<br>><br>><br>><br>> I?ve got an GPFS to GPFS AFM cache/home (IW) relationship set up over a<br>> really long distance. About 180ms of latency between the two clusters and<br>> around 13,000km of optical path. Fortunately for me, I?ve actually got near<br>> theoretical maximum IO over the NIC?s between the clusters and I?m<br>> iPerf?ing at around 8.90 to 9.2Gbit/sec over a 10GbE circuit. All MTU9000<br>> all the way through.<br>><br>><br>><br>> Anyway ? I?m finding my AFM traffic to be dragging its feet and I don?t<br>> really understand why that might be. I?ve verified the links and transports<br>> ability as I said above with iPerf, and CERN?s FDT to near 10Gbit/sec.<br>><br>><br>><br>> I also verified the clusters on both sides in terms of disk IO and they<br>> both seem easily capable in IOZone and IOR tests of multiple GB/sec of<br>> throughput.<br>><br>><br>><br>> So ? my questions:<br>><br>><br>><br>> 1.       Are there very specific tunings AFM needs for high latency/long<br>> distance IO?<br>><br>> 2.       Are there very specific NIC/TCP-stack tunings (beyond the type<br>> of thing we already have in place) that benefits AFM over really long<br>> distances and high latency?<br>><br>> 3.       We are seeing on the ?cache? side really lazy/sticky ?ls ?als?<br>> in the home mount. It sometimes takes 20 to 30 seconds before the command<br>> line will report back with a long listing of files. Any ideas why it?d take<br>> that long to get a response from ?home?.<br>><br>><br>><br>> We?ve got our TCP stack setup fairly aggressively, on all hosts that<br>> participate in these two clusters.<br>><br>><br>><br>> ethtool -C enp2s0f0 adaptive-rx off<br>><br>> ifconfig enp2s0f0 txqueuelen 10000<br>><br>> sysctl -w net.core.rmem_max=536870912<br>><br>> sysctl -w net.core.wmem_max=536870912<br>><br>> sysctl -w net.ipv4.tcp_rmem="4096 87380 268435456"<br>><br>> sysctl -w net.ipv4.tcp_wmem="4096 65536 268435456"<br>><br>> sysctl -w net.core.netdev_max_backlog=250000<br>><br>> sysctl -w net.ipv4.tcp_congestion_control=htcp<br>><br>> sysctl -w net.ipv4.tcp_mtu_probing=1<br>><br>><br>><br>> I modified a couple of small things on the AFM ?cache? side to see if it?d<br>> make a difference such as:<br>><br>><br>><br>> mmchconfig afmNumWriteThreads=4<br>><br>> mmchconfig afmNumReadThreads=4<br>><br>><br>><br>> But no difference so far.<br>><br>><br>><br>> Thoughts would be appreciated. I?ve done this before over much shorter<br>> distances (30Km) and I?ve flattened a 10GbE wire without really<br>> tuning?anything. Are my large in-flight-packets<br>> numbers/long-time-to-acknowledgement semantics going to hurt here? I really<br>> thought AFM might be well designed for exactly this kind of work at long<br>> distance **and** high throughput ? so I must be missing something!<br>><br>><br>><br>> -jc<br>><br>><br>><br>><br>><br>><br>> _______________________________________________<br>> gpfsug-discuss mailing list<br>> gpfsug-discuss at spectrumscale.org<br>> <a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>><br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <<a href="http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20161109/f44369ab/attachment.html">http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20161109/f44369ab/attachment.html</a>><br><br>------------------------------<br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br><br><br>End of gpfsug-discuss Digest, Vol 58, Issue 12<br>**********************************************<br><br></font></div></div></div></font><BR>