<html><body>
<p><font size="2" face="sans-serif">Thanks for the replies Simon...</font><br>
<br>
<font size="2" face="sans-serif">Chris, are you using -v to give the container access to the nfs subdir (and hence to a gpfs subdir) (and hence achieve a level of multi-tenancy)?  Even without containers, I wonder if this could allow users to run their own VMs as root as well...and preventing them from becoming root on gpfs...</font><br>
<br>
<font size="2" face="sans-serif">I'd love for you to share your experience (mgmt and perf) with this architecture once you get it up and running.  Some side benefits of this architecture that we have been thinking about as well  is that it allows both the containers and VMs to be somewhat ephemeral, while the gpfs continues to run in the hypervisor...</font><br>
<br>
<font size="2" face="sans-serif">To ensure VMotion works relatively smoothly, just ensure each VM is given a hostname to mount that always routes back to the localhost nfs server on each machine...and I think things should work relatively smoothly.  Note you'll need to maintain the same set of nfs exports across the entire cluster as well, so taht when a VM moves to another machine it immediately has an available export to mount.  </font><br>
<font size="2" face="sans-serif"><br>
Dean Hildebrand<br>
IBM Almaden Research Center<br>
</font><br>
<br>
<img width="16" height="16" src="cid:1__=07BBF432DFF2C4988f9e8a93df938@us.ibm.com" border="0" alt="Inactive hide details for "Simon Thompson (Research Computing - IT Services)" ---08/13/2015 07:33:16 AM--->I've set up a couple"><font size="2" color="#424282" face="sans-serif">"Simon Thompson (Research Computing - IT Services)" ---08/13/2015 07:33:16 AM--->I've set up a couple of VM hosts to export some of its GPFS filesystem >via NFS to machines on that</font><br>
<br>
<font size="1" color="#5F5F5F" face="sans-serif">From:      </font><font size="1" face="sans-serif">"Simon Thompson (Research Computing - IT Services)" <S.J.Thompson@bham.ac.uk></font><br>
<font size="1" color="#5F5F5F" face="sans-serif">To:        </font><font size="1" face="sans-serif">gpfsug main discussion list <gpfsug-discuss@gpfsug.org></font><br>
<font size="1" color="#5F5F5F" face="sans-serif">Date:      </font><font size="1" face="sans-serif">08/13/2015 07:33 AM</font><br>
<font size="1" color="#5F5F5F" face="sans-serif">Subject:   </font><font size="1" face="sans-serif">Re: [gpfsug-discuss] Reexporting GPFS via NFS on VM host</font><br>
<font size="1" color="#5F5F5F" face="sans-serif">Sent by:   </font><font size="1" face="sans-serif">gpfsug-discuss-bounces@gpfsug.org</font><br>
<hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br>
<br>
<br>
<tt><font size="2"><br>
>I've set up a couple of VM hosts to export some of its GPFS filesystem<br>
>via NFS to machines on that VM host[1,2].<br>
<br>
Provided all your sockets no the VM host are licensed.<br>
<br>
>Is live migration of VMs likely to work?<br>
><br>
>Live migration isn't a hard requirement, but if it will work, it could<br>
>make our life easier.<br>
<br>
Live migration using a GPFS file-system on the hypervisor node should work<br>
(subject to the usual caveats of live migration).<br>
<br>
Whether live migration and your VM instances would still be able to NFS<br>
mount (assuming loopback address?) if they moved to a different<br>
hypervisor, pass, you might get weird NFS locks. And if they are still<br>
mounting from the original VM host, then you are not doing what the FAQ<br>
says you can do.<br>
<br>
Simon<br>
<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at gpfsug.org<br>
</font></tt><tt><font size="2"><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></tt><tt><font size="2"><br>
<br>
</font></tt><br>
<br>
</body></html>