<br>I have been running GPFS over iSCSI, and know of customers who are also. Probably not in the most demanding environments, but from my experience iSCSI works perfectly fine as long as you have a stable network. Having a dedicated (simple) storage network for iSCSI is probably a good idea (just like for FC), otherwise iSCSI or GPFS is going to look bad when your network admins cause problems on the shared network.<br><br><br>  -jf<br><div class="gmail_quote"><div dir="ltr">søn. 16. des. 2018 kl. 12:59 skrev Frank Kraemer <<a href="mailto:kraemerf@de.ibm.com">kraemerf@de.ibm.com</a>>:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><p><font size="2">Kevin,</font><br><br><font size="2">Ethernet networking of today is changing very fast as the driving forces are the "Hyperscale" datacenters. This big innovation is changing the world and is happening right now. You must understand the conversation by breaking down the differences between ASICs, FPGAs, and NPUs in modern Ethernet networking.</font><br><br><font size="2">1) Mellanox has a very good answer here based on the Spectrum-2 chip</font><br><a href="http://www.mellanox.com/page/press_release_item?id=1933" target="_blank"><font size="2">http://www.mellanox.com/page/press_release_item?id=1933</font></a><br><br><font size="2">2) Broadcom's answer to this is the 12.8 Tb/s StrataXGS Tomahawk 3 Ethernet Switch Series</font><br><a href="https://www.broadcom.com/products/ethernet-connectivity/switching/strataxgs/bcm56980-series" target="_blank"><font size="2">https://www.broadcom.com/products/ethernet-connectivity/switching/strataxgs/bcm56980-series</font></a><br><a href="https://globenewswire.com/news-release/2018/10/24/1626188/0/en/Broadcom-Achieves-Mass-Production-on-Industry-Leading-12-8-Tbps-Tomahawk-3-Ethernet-Switch-Family.html" target="_blank"><font size="2">https://globenewswire.com/news-release/2018/10/24/1626188/0/en/Broadcom-Achieves-Mass-Production-on-Industry-Leading-12-8-Tbps-Tomahawk-3-Ethernet-Switch-Family.html</font></a><br><br><font size="2">3) Barefoots Tofinio2 is another valid answer to this problem as it's programmable with the P4 language (important for Hyperscale Datacenters)</font><br><a href="https://www.barefootnetworks.com/" target="_blank"><font size="2">https://www.barefootnetworks.com/</font></a><br><br><font size="2">The P4 language itself is open source. There’s details at <a href="http://p4.org" target="_blank">p4.org</a>, or you can download code at GitHub: </font><a href="https://github.com/p4lang/" target="_blank"><font size="2">https://github.com/p4lang/</font></a><br><br><font size="2">4) The last newcomer to this party comes from Innovium named Teralynx</font><br><a href="https://innovium.com/products/teralynx/" target="_blank"><font size="2">https://innovium.com/products/teralynx/</font></a><br><a href="https://innovium.com/2018/03/20/innovium-releases-industrys-most-advanced-switch-software-platform-for-high-performance-data-center-networking-2-2-2-2-2-2/" target="_blank"><font size="2">https://innovium.com/2018/03/20/innovium-releases-industrys-most-advanced-switch-software-platform-for-high-performance-data-center-networking-2-2-2-2-2-2/</font></a><br><br><font size="2">(Most of the new Cisco switches are powered by the Teralynx silicon, as Cisco seems to be late to this game with it's own development.)</font><br><br><font size="2">So back your question - iSCSI is not the future! NVMe and it's variants is the way to go and these new ethernet swichting products does have this in focus.</font><br><font size="2">Due to the performance demands of NVMe, high performance and low latency networking is required and Ethernet based RDMA — RoCE, RoCEv2 or iWARP are the leading choices.</font><br><br><font size="2">-frank-</font><br><br><font size="2">P.S. My Xmas wishlist to the IBM Spectrum Scale development team would be a "2019 HighSpeed Ethernet Networking optimization for Spectrum Scale" to make use of all these new things and options :-) </font><br><br><font size="2">Frank Kraemer<br>IBM Consulting IT Specialist  / Client Technical Architect<br>Am Weiher 24, 65451 Kelsterbach, Germany<br><a href="mailto:kraemerf@de.ibm.com" target="_blank">mailto:kraemerf@de.ibm.com</a><br>Mobile +49171-3043699<br>IBM Germany</font><br>
</p></div>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>
</blockquote></div>