<div dir="ltr"><div><div><br>You can lower LEASE_LIFETIME and GRACE_PERIOD to shorten the time it's in grace, to make it more bearable. Making export changes dynamic is something that's fixed in newer versions of nfs-ganesha than what's shipped with Scale:<br><br><a href="https://github.com/nfs-ganesha/nfs-ganesha/releases/tag/V2.4.0">https://github.com/nfs-ganesha/nfs-ganesha/releases/tag/V2.4.0</a>:<br><br>  "dynamic EXPORT configuration update (via dBus and SIGHUP)"<br><br></div>Hopefully someone can comment on when we'll see nfs-ganesha v2.4+ included with Scale.<br><br><br></div>  -jf<br><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Oct 23, 2017 at 12:41 PM, Peinkofer, Stephan <span dir="ltr"><<a href="mailto:Stephan.Peinkofer@lrz.de" target="_blank">Stephan.Peinkofer@lrz.de</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">



<div style="word-wrap:break-word">
Dear List,
<div><br>
</div>
<div>I’m currently working on a self service portal for managing NFS exports of ISS. Basically something very similar to OpenStack Manila but tailored to our specific needs.</div>
<div>While it was very easy to do this using the great REST API of ISS, I stumbled across a fact that may be even a show stopper: According to the documentation for mmnfs, each time we</div>
<div>create/change/delete a NFS export via mmnfs, ganesha service is restarted on all nodes. </div>
<div><br>
</div>
<div>I assume that this behaviour may cause problems (at least IO stalls) on clients mounted the filesystem. So my question is, what is your experience with CES NFS export management.</div>
<div>Do you see any problems when you add/change/delete exports and ganesha gets restarted?</div>
<div><br>
</div>
<div>Are there any (supported) workarounds for this problem? </div>
<div><br>
</div>
<div>PS: As I think in 2017 CES Exports should be manageable without service disruptions (and ganesha provides facilities to do so), I filed an RFE for this: <a href="https://www.ibm.com/developerworks/rfe/execute?use_case=viewRfe&CR_ID=111918" target="_blank">https://www.ibm.com/<wbr>developerworks/rfe/execute?<wbr>use_case=viewRfe&CR_ID=111918</a></div>
<div><br>
</div>
<div>Many thanks in advance.</div>
<div>Best Regards,</div>
<div>Stephan Peinkofer</div><span class="HOEnZb"><font color="#888888">
<div>
<div style="color:rgb(0,0,0);font-family:Helvetica;font-size:12px;font-style:normal;font-variant-caps:normal;font-weight:normal;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px">
-- <br>
Stephan Peinkofer<br>
Dipl. Inf. (FH), M. Sc. (TUM)<br>
 <br>
Leibniz Supercomputing Centre<br>
Data and Storage Division<br>
Boltzmannstraße 1, 85748 Garching b. München<br>
Tel: <a href="tel:+49%2089%20358318715" value="+4989358318715" target="_blank">+49(0)89 35831-8715</a>     Fax: <a href="tel:+49%2089%20358319700" value="+4989358319700" target="_blank">+49(0)89 35831-9700</a><br>
URL: <a href="http://www.lrz.de" target="_blank">http://www.lrz.de</a></div>
</div>
<br>
</font></span></div>

<br>______________________________<wbr>_________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer" target="_blank">http://gpfsug.org/mailman/<wbr>listinfo/gpfsug-discuss</a><br>
<br></blockquote></div><br></div>