<font size=2 face="sans-serif">Hi Brian,</font><br><br><font size=2 face="sans-serif">For option #3, you can use GPFS Manila
(OpenStack shared file system service) driver for exporting data from protocol
servers to the OpenStack VMs.</font><br><font size=2 face="sans-serif">It was updated to support CES in the
Newton release.</font><br><br><font size=2 face="sans-serif">A new feature of bringing existing filesets
under Manila management has also been added recently.</font><br><br><font size=2 face="sans-serif">Thanks,</font><br><font size=2 face="sans-serif">Gaurang</font><br><font size=2 face="sans-serif">------------------------------------------------------------------------<br>Gaurang S Tapase<br>Spectrum Scale & OpenStack<br>IBM India Storage Lab, Pune (India)<br>Email : gaurang.tapase@in.ibm.com<br>Phone : +91-20-42025699 (W), +91-9860082042(Cell)<br>-------------------------------------------------------------------------</font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">Brian Marshall <mimarsh2@vt.edu></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">gpfsug main discussion
list <gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">01/18/2017 09:52 PM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">Re: [gpfsug-discuss]
Mounting GPFS data on OpenStack VM</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><font size=2 face="Arial">To answer some more questions:</font><br><br><font size=2 face="Arial">What sort of workload will your Nova VM's
be running?</font><br><font size=2 face="Arial">This is largely TBD but we anticipate webapps
and other non-batch ways of interacting with and post processing data that
has been computed on HPC batch systems.  For example a user might
host a website that allows users to view pieces of a large data set and
do some processing in private cloud or kick off larger jobs on HPC clusters</font><br><br><font size=2 face="Arial">How many VM's are you running?</font><br><font size=2 face="Arial">This work is still in the design / build
phase.  We have 48 servers slated for the project.  At max maybe
500 VMs; again this is a pretty wild estimate.  This is a new service
we are looking to provide</font><br><br><font size=2 face="Arial">What is your Network interconnect between
the Scale Storage cluster and the Nova Compute cluster</font><br><font size=2 face="Arial">Each nova node has a dual 10gigE connection
to switches that uplink to our core 40 gigE switches were NSD Servers are
directly connectly.</font><br><br><font size=2 face="Arial">The information so far has been awesome. 
Thanks everyone.  I am definitely leaning towards option #3 of creating
protocol servers.  Are there any design/build white papers targetting
the virutalization use case?</font><br><br><font size=2 face="Arial">Thanks,<br>Brian</font><br><br><font size=3>On Tue, Jan 17, 2017 at 5:55 PM, Andrew Beattie <</font><a href=mailto:abeattie@au1.ibm.com target=_blank><font size=3 color=blue><u>abeattie@au1.ibm.com</u></font></a><font size=3>>
wrote:</font><br><font size=2 face="Arial">HI Brian,</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">Couple of questions for you:</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">What sort of workload will your Nova VM's
be running?</font><br><font size=2 face="Arial">How many VM's are you running?</font><br><font size=2 face="Arial">What is your Network interconnect between
the Scale Storage cluster and the Nova Compute cluster</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">I have cc'd Jake Carrol from University of
Queensland in on the email as I know they have done some basic performance
testing using Scale to provide storage to Openstack.</font><br><font size=2 face="Arial">One of the issues that they found was the
Openstack network translation was a performance limiting factor.</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">I think from memory the best performance
scenario they had was, when they installed the scale client locally into
the virtual machines</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial"> </font><br><font size=3 color=#80803f face="Arial"><b>Andrew Beattie</b></font><br><font size=2 face="Arial"><b>Software Defined Storage  - IT Specialist</b></font><br><font size=1 color=#3f8080 face="Arial"><b>Phone: </b></font><font size=1 face="Arial">614-2133-7927</font><br><font size=1 color=#3f8080 face="Arial"><b>E-mail: </b></font><a href=mailto:abeattie@au1.ibm.com target=_blank><font size=1 color=#4f4f4f face="Arial"><u>abeattie@au1.ibm.com</u></font></a><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">----- Original message -----<br>From: Brian Marshall <</font><a href=mailto:mimarsh2@vt.edu target=_blank><font size=2 color=blue face="Arial"><u>mimarsh2@vt.edu</u></font></a><font size=2 face="Arial">><br>Sent by: </font><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target=_blank><font size=2 color=blue face="Arial"><u>gpfsug-discuss-bounces@spectrumscale.org</u></font></a><font size=2 face="Arial"><br>To: gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@spectrumscale.org" target=_blank><font size=2 color=blue face="Arial"><u>gpfsug-discuss@spectrumscale.org</u></font></a><font size=2 face="Arial">><br>Cc:<br>Subject: [gpfsug-discuss] Mounting GPFS data on OpenStack VM<br>Date: Wed, Jan 18, 2017 7:51 AM<br>  </font><br><font size=2 face="Arial">UG, </font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">I have a GPFS filesystem.</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">I have a OpenStack private cloud.</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">What is the best way for Nova Compute VMs
to have access to data inside the GPFS filesystem?</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">1)Should VMs mount GPFS directly with a GPFS
client?</font><br><font size=2 face="Arial">2) Should the hypervisor mount GPFS and share
to nova computes?</font><br><font size=2 face="Arial">3) Should I create GPFS protocol servers
that allow nova computes to mount of NFS?</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">All advice is welcome.</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">Best,</font><br><font size=2 face="Arial">Brian Marshall</font><br><font size=2 face="Arial">Virginia Tech</font><br><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at </font></tt><a href=http://spectrumscale.org/ target=_blank><tt><font size=2 color=blue><u>spectrumscale.org</u></font></tt></a><tt><font size=2 color=blue><u><br></u></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target=_blank><tt><font size=2 color=blue><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></tt></a><br><font size=2 face="Arial"> </font><br><br><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><br><BR>