<font size=2 face="sans-serif">yes, deleting all NFS exports which point
to a given file system would allow you to unmount it without bringing down
the other file systems. </font><br><br><br><font size=2 face="sans-serif">Mit freundlichen Grüßen / Kind regards<br><br>Mathias Dietz<br><br>Spectrum Scale Development - Release Lead Architect (4.2.x)<br>Spectrum Scale RAS Architect<br>---------------------------------------------------------------------------<br>IBM Deutschland<br>Am Weiher 24<br>65451 Kelsterbach<br>Phone: +49 70342744105<br>Mobile: +49-15152801035<br>E-Mail: mdietz@de.ibm.com<br>-----------------------------------------------------------------------------<br>IBM Deutschland Research & Development GmbH<br>Vorsitzender des Aufsichtsrats: Martina Koederitz, Geschäftsführung: Dirk
WittkoppSitz der Gesellschaft: Böblingen / Registergericht: Amtsgericht
Stuttgart, HRB 243294</font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">valleru@cbio.mskcc.org</font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">gpfsug main discussion
list <gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">03/05/2018 16:41</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">Re: [gpfsug-discuss]
Spectrum Scale CES and remote file system mounts</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><font size=2 face="sans-serif">Thanks Mathiaz, </font><br><font size=2 face="sans-serif">Yes i do understand the concern, that
if one of the remote file systems go down abruptly - the others will go
down too.</font><br><br><font size=2 face="sans-serif">However, i suppose we could bring down
one of the filesystems before a planned downtime? </font><br><font size=2 face="sans-serif">For example, by unexporting the filesystems
on NFS/SMB before the downtime?</font><br><br><font size=2 face="sans-serif">I might not want to be in a situation,
where i have to bring down all the remote filesystems because of planned
downtime of one of the remote clusters.</font><br><br><font size=2 face="sans-serif">Regards,</font><br><font size=2 face="sans-serif">Lohit</font><br><font size=2 face="sans-serif"><br>On May 3, 2018, 7:41 AM -0400, Mathias Dietz <MDIETZ@de.ibm.com>,
wrote:</font><br><font size=2 face="sans-serif">Hi Lohit,</font><font size=2 face="sans-serif"><br></font><font size=2 face="sans-serif"><br>>I am thinking of using a single CES protocol cluster, with remote mounts
from 3 storage clusters.<br>Technically this should work fine (assuming all 3 clusters use the same
uids/guids). However this has not been tested in our Test lab.</font><font size=2 face="sans-serif"><br><br></font><font size=2 face="sans-serif"><br>>One thing to watch, be careful if your CES root is on a remote fs,
as if that goes away, so do all CES exports.<br>Not only the ces root file system is a concern, the whole CES cluster will
go down if any remote file systems with NFS exports is not available.<br>e.g. if remote cluster 1 is not available, the CES cluster will unmount
the corresponding file system which will lead to a NFS failure on all CES
nodes.</font><font size=2 face="sans-serif"><br><br></font><font size=2 face="sans-serif"><br>Mit freundlichen Grüßen / Kind regards<br><br>Mathias Dietz<br><br>Spectrum Scale Development - Release Lead Architect (4.2.x)<br>Spectrum Scale RAS Architect<br>---------------------------------------------------------------------------<br>IBM Deutschland<br>Am Weiher 24<br>65451 Kelsterbach<br>Phone: +49 70342744105<br>Mobile: +49-15152801035<br>E-Mail: mdietz@de.ibm.com<br>-----------------------------------------------------------------------------<br>IBM Deutschland Research & Development GmbH<br>Vorsitzender des Aufsichtsrats: Martina Koederitz, Geschäftsführung: Dirk
WittkoppSitz der Gesellschaft: Böblingen / Registergericht: Amtsgericht
Stuttgart, HRB 243294</font><font size=2 face="sans-serif"><br><br><br></font><font size=1 color=#5f5f5f face="sans-serif"><br>From:        </font><font size=1 face="sans-serif">valleru@cbio.mskcc.org</font><font size=1 color=#5f5f5f face="sans-serif"><br>To:        </font><font size=1 face="sans-serif">gpfsug
main discussion list <gpfsug-discuss@spectrumscale.org></font><font size=1 color=#5f5f5f face="sans-serif"><br>Date:        </font><font size=1 face="sans-serif">01/05/2018
16:34</font><font size=1 color=#5f5f5f face="sans-serif"><br>Subject:        </font><font size=1 face="sans-serif">Re:
[gpfsug-discuss] Spectrum Scale CES and remote file system mounts</font><font size=1 color=#5f5f5f face="sans-serif"><br>Sent by:        </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><font size=2 face="sans-serif"><br></font><hr noshade><font size=2 face="sans-serif"><br><br></font><font size=2 face="sans-serif"><br>Thanks Simon.<br>I will make sure i am careful about the CES root and test nfs exporting
more than 2 remote file systems.<br><br>Regards,<br>Lohit<br><br>On Apr 30, 2018, 5:57 PM -0400, Simon Thompson (IT Research Support) <S.J.Thompson@bham.ac.uk>,
wrote:<br>You have been able to do this for some time, though I think it's only just
supported.<br><br>We've been exporting remote mounts since CES was added.<br><br>At some point we've had two storage clusters supplying data and at least
3 remote file-systems exported over NFS and SMB.<br><br>One thing to watch, be careful if your CES root is on a remote fs, as if
that goes away, so do all CES exports. We do have CES root on a remote
fs and it works, just be aware...<br><br>Simon<br>________________________________________<br>From: gpfsug-discuss-bounces@spectrumscale.org [gpfsug-discuss-bounces@spectrumscale.org]
on behalf of valleru@cbio.mskcc.org [valleru@cbio.mskcc.org]<br>Sent: 30 April 2018 22:11<br>To: gpfsug main discussion list<br>Subject: [gpfsug-discuss] Spectrum Scale CES and remote file system mounts<br><br>Hello All,<br><br>I read from the below link, that it is now possible to export remote mounts
over NFS/SMB.<br></font><font size=2 color=blue face="sans-serif"><u><br></u></font><a href="https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adv_protocoloverremoteclu.htm"><font size=2 color=blue face="sans-serif"><u>https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adv_protocoloverremoteclu.htm</u></font></a><font size=2 face="sans-serif"><br><br>I am thinking of using a single CES protocol cluster, with remote mounts
from 3 storage clusters.<br>May i know, if i will be able to export the 3 remote mounts(from 3 storage
clusters) over NFS/SMB from a single CES protocol cluster?<br><br>Because according to the limitations as mentioned in the below link:<br></font><font size=2 color=blue face="sans-serif"><u><br></u></font><a href="https://www.ibm.com/support/knowledgecenter/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adv_limitationofprotocolonRMT.htm"><font size=2 color=blue face="sans-serif"><u>https://www.ibm.com/support/knowledgecenter/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adv_limitationofprotocolonRMT.htm</u></font></a><font size=2 face="sans-serif"><br><br>It says “You can configure one storage cluster and up to five protocol
clusters (current limit).”<br><br><br>Regards,<br>Lohit<br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font><font size=2 color=blue face="sans-serif"><u><br></u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size=2 color=blue face="sans-serif"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><font size=2 face="sans-serif">_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font><font size=2 color=blue face="sans-serif"><u><br></u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size=2 color=blue face="sans-serif"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><font size=2 face="sans-serif"><br><br><br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size=2 face="sans-serif">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></a><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><br><br><BR>