<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<title></title>
</head>
<body>
<div name="messageBodySection" style="font-size: 14px; font-family: -apple-system, BlinkMacSystemFont, sans-serif;">Thanks Mathiaz,
<div>Yes i do understand the concern, that if one of the remote file systems go down abruptly - the others will go down too.</div>
<div><br /></div>
<div>However, i suppose we could bring down one of the filesystems before a planned downtime? </div>
<div>For example, by unexporting the filesystems on NFS/SMB before the downtime?</div>
<div><br /></div>
<div>I might not want to be in a situation, where i have to bring down all the remote filesystems because of planned downtime of one of the remote clusters.</div>
</div>
<div name="messageSignatureSection" style="font-size: 14px; font-family: -apple-system, BlinkMacSystemFont, sans-serif;"><br />
<div class="matchFont">Regards,</div>
<div class="matchFont">Lohit</div>
</div>
<div name="messageReplySection" style="font-size: 14px; font-family: -apple-system, BlinkMacSystemFont, sans-serif;"><br />
On May 3, 2018, 7:41 AM -0400, Mathias Dietz <MDIETZ@de.ibm.com>, wrote:<br />
<blockquote type="cite" style="margin: 5px 5px; padding-left: 10px; border-left: thin solid #1abc9c;"><font size="2" face="sans-serif">Hi Lohit,</font><br />
<br />
<font size="2" face="sans-serif">></font><font size="2" face="sans-serif">I am thinking of using a single CES protocol cluster, with remote mounts from 3 storage clusters.</font><br />
<font size="2" face="sans-serif">Technically this should work fine (assuming all 3 clusters use the same uids/guids). However this has not been tested in our Test lab.</font><br />
<br />
<br />
<font size="2" face="sans-serif">>One thing to watch, be careful if your CES root is on a remote fs, as if that goes away, so do all CES exports.</font><br />
<font size="2" face="sans-serif">Not only the ces root file system is a concern, the whole CES cluster will go down if any remote file systems with NFS exports is not available.</font><br />
<font size="2" face="sans-serif">e.g. if remote cluster 1 is not available, the CES cluster will unmount the corresponding file system which will lead to a NFS failure on all CES nodes.</font><br />
<br />
<br />
<font size="2" face="sans-serif">Mit freundlichen Grüßen / Kind regards<br />
<br />
Mathias Dietz<br />
<br />
Spectrum Scale Development - Release Lead Architect (4.2.x)<br />
Spectrum Scale RAS Architect<br />
---------------------------------------------------------------------------<br />
IBM Deutschland<br />
Am Weiher 24<br />
65451 Kelsterbach<br />
Phone: +49 70342744105<br />
Mobile: +49-15152801035<br />
E-Mail: mdietz@de.ibm.com<br />
-----------------------------------------------------------------------------<br />
IBM Deutschland Research & Development GmbH<br />
Vorsitzender des Aufsichtsrats: Martina Koederitz, Geschäftsführung: Dirk WittkoppSitz der Gesellschaft: Böblingen / Registergericht: Amtsgericht Stuttgart, HRB 243294</font><br />
<br />
<br />
<br />
<font size="1" color="#5F5F5F" face="sans-serif">From:        </font><font size="1" face="sans-serif">valleru@cbio.mskcc.org</font><br />
<font size="1" color="#5F5F5F" face="sans-serif">To:        </font><font size="1" face="sans-serif">gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><br />
<font size="1" color="#5F5F5F" face="sans-serif">Date:        </font><font size="1" face="sans-serif">01/05/2018 16:34</font><br />
<font size="1" color="#5F5F5F" face="sans-serif">Subject:        </font><font size="1" face="sans-serif">Re: [gpfsug-discuss] Spectrum Scale CES and remote file system mounts</font><br />
<font size="1" color="#5F5F5F" face="sans-serif">Sent by:        </font><font size="1" face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br />
<hr noshade="noshade" />
<br />
<br />
<br />
<font size="2" face="sans-serif">Thanks Simon.</font><br />
<font size="2" face="sans-serif">I will make sure i am careful about the CES root and test nfs exporting more than 2 remote file systems.</font><br />
<font size="2" face="sans-serif"><br />
Regards,<br />
Lohit</font><br />
<font size="2" face="sans-serif"><br />
On Apr 30, 2018, 5:57 PM -0400, Simon Thompson (IT Research Support) <S.J.Thompson@bham.ac.uk>, wrote:</font><br />
<font size="2" face="sans-serif">You have been able to do this for some time, though I think it's only just supported.<br />
<br />
We've been exporting remote mounts since CES was added.<br />
<br />
At some point we've had two storage clusters supplying data and at least 3 remote file-systems exported over NFS and SMB.<br />
<br />
One thing to watch, be careful if your CES root is on a remote fs, as if that goes away, so do all CES exports. We do have CES root on a remote fs and it works, just be aware...<br />
<br />
Simon<br />
________________________________________<br />
From: gpfsug-discuss-bounces@spectrumscale.org [gpfsug-discuss-bounces@spectrumscale.org] on behalf of valleru@cbio.mskcc.org [valleru@cbio.mskcc.org]<br />
Sent: 30 April 2018 22:11<br />
To: gpfsug main discussion list<br />
Subject: [gpfsug-discuss] Spectrum Scale CES and remote file system mounts<br />
<br />
Hello All,<br />
<br />
I read from the below link, that it is now possible to export remote mounts over NFS/SMB.<br />
<br /></font> <a href="https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adv_protocoloverremoteclu.htm"><font size="2" face="sans-serif">https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adv_protocoloverremoteclu.htm</font></a><font size="2" face="sans-serif"><br />
<br />
I am thinking of using a single CES protocol cluster, with remote mounts from 3 storage clusters.<br />
May i know, if i will be able to export the 3 remote mounts(from 3 storage clusters) over NFS/SMB from a single CES protocol cluster?<br />
<br />
Because according to the limitations as mentioned in the below link:<br />
<br /></font> <a href="https://www.ibm.com/support/knowledgecenter/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adv_limitationofprotocolonRMT.htm"><font size="2" face="sans-serif">https://www.ibm.com/support/knowledgecenter/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adv_limitationofprotocolonRMT.htm</font></a><font size="2" face="sans-serif"><br />
<br />
It says “You can configure one storage cluster and up to five protocol clusters (current limit).”<br />
<br />
<br />
Regards,<br />
Lohit<br />
_______________________________________________<br />
gpfsug-discuss mailing list<br />
gpfsug-discuss at spectrumscale.org<br /></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size="2" face="sans-serif">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></a><tt><font size="2">_______________________________________________<br />
gpfsug-discuss mailing list<br />
gpfsug-discuss at spectrumscale.org<br /></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size="2">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size="2"><br /></font></tt><br />
<br />
<br />
_______________________________________________<br />
gpfsug-discuss mailing list<br />
gpfsug-discuss at spectrumscale.org<br />
http://gpfsug.org/mailman/listinfo/gpfsug-discuss<br /></blockquote>
</div>
</body>
</html>