<div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10pt" ><div dir="ltr" >let me add a few comments from some very successful large installations in Eruope</div>
<div dir="ltr" > </div>
<div dir="ltr" ># InterOP</div>
<div dir="ltr" >Even though (as Luis pointed to) , there is no support statement to run intermix DSS/ESS in general, it was ~, and is, and will be, ~ allowed for short term purposes, such as e.g migration.</div>
<div dir="ltr" >The reason to not support those DSS/ESS mixed configuration in general is simply driven by the fact, that different release version of DSS/ESS potentially (not in every release, but sometimes)  comes with different driver levels, (e.g. MOFED), OS, RDMA-settings, GPFS tuning,  etc...</div>
<div dir="ltr" >Those changes can have an impact/multiple impacts and therefore, we do not support that in general. Of course -and this would be the advice for every one - if you are faced the need to run a mixed configuration for e.g. a migration and/or e.g. cause of you need to temporary provide space etc... contact you IBM representative and settle to plan that accordingly..</div>
<div dir="ltr" >There will be (likely) some additional requirements/dependencies defined  like  driver versions, OS,  and/or Scale versions, but you'll get a chance to run mixed configuration - temporary limited to your specific scenario.</div>
<div dir="ltr" > </div>
<div dir="ltr" ># Monitoring</div>
<div dir="ltr" >No doubt, monitoring is essential and absolutely needed. - and/but - IBM wants customers to be very sensitive, what kind of additional software (=workload) gets installed on the ESS-IO servers. BTW, this rule applies as well to any other important GPFS node with special roles (e.g. any other NSD server etc)</div>
<div dir="ltr" >But given the fact, that customer's usually manage and monitor their server farms from a central point of control (any 3rd party software), it is common/ best practice , that additionally monitor software(clients/endpoints) has to run on GPFS nodes, so as on ESS nodes too.</div>
<div dir="ltr" > </div>
<div dir="ltr" >If that way of acceptance applies for DSS too, you may want to double check with Lenovo ?!</div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<div dir="ltr" >#additionally GW functions</div>
<div dir="ltr" >It would be a hot iron, to general allow routing on IO nodes. Similar to the mixed support approach, the field variety for such a statement would be hard(==impossible) to manage. As we all agree, additional network traffic can (and in fact will) impact GPFS.</div>
<div dir="ltr" >In your special case, the expected data rates seems to me more than ok and acceptable to go with your suggested config (as long workloads remain on that level / monitor it accordingly as you are already obviously doing) </div>
<div dir="ltr" >Again,to be on the safe side.. contact your IBM representative and I'm sure you 'll find a way..</div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<div dir="ltr" >kind regards....</div>
<div dir="ltr" >olaf</div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<blockquote data-history-content-modified="1" dir="ltr" style="border-left:solid #aaaaaa 2px; margin-left:5px; padding-left:5px; direction:ltr; margin-right:0px" >----- Original message -----<br>From: Jonathan Buzzard <jonathan.buzzard@strath.ac.uk><br>Sent by: gpfsug-discuss-bounces@spectrumscale.org<br>To: gpfsug-discuss@spectrumscale.org<br>Cc:<br>Subject: [EXTERNAL] Re: [gpfsug-discuss] Services on DSS/ESS nodes<br>Date: Sun, Oct 4, 2020 12:17 PM<br> 
<div><font size="2" face="Default Monospace,Courier New,Courier,monospace" >On 04/10/2020 10:29, Luis Bolinches wrote:<br>> Hi<br>><br>> As stated on the same link you can do remote mounts from each other and<br>> be a supported setup.<br>><br>> “ You can use the remote mount feature of IBM Spectrum Scale to share<br>> file system data across clusters.”<br>><br><br>You can, but imagine I have a DSS-G cluster, with 2PB of storage on it<br>which is quite modest in 2020. It is now end of life and for whatever<br>reason I decide I want to move to ESS instead.<br><br>What any sane storage admin want to do at this stage is set the ESS, add<br>the ESS nodes to the existing cluster on the DSS-G then do a bit of<br>mmadddisk/mmdeldisk and sit back while the data is seemlessly moved from<br>the DSS-G to the ESS. Admittedly this might take a while :-)<br><br>Then once all the data is moved a bit of mmdelnode and bingo the storage<br>has been migrated from DSS-G to ESS with zero downtime.<br><br>As that is not allowed for what I presume are commercial reasons (you<br>could do it in reverse and presumable that is what IBM don't want) then<br>once you are down the rabbit hole of one type of storage the you are not<br>going to switch to a different one.<br><br>You need to look at it from the perspective of the users. They frankly<br>could not give a monkeys what storage solution you are using. All they<br>care about is having usable storage and large amounts of downtime to<br>switch from one storage type to another is not really acceptable.<br><br><br>JAB.<br><br>--<br>Jonathan A. Buzzard                         Tel: +44141-5483420<br>HPC System Administrator, ARCHIE-WeSt.<br>University of Strathclyde, John Anderson Building, Glasgow. G4 0NG<br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a> </font><br> </div></blockquote>
<div dir="ltr" > </div></div><BR>