<div dir="ltr">Perfect.  Thanks for the advice.  <div><br></div><div>Further: this might be a basic question: Are their design guides for building CES protocl servers?</div><div><br></div><div>Brian</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jan 20, 2017 at 1:04 PM, Gaurang Tapase <span dir="ltr"><<a href="mailto:gaurang.tapase@in.ibm.com" target="_blank">gaurang.tapase@in.ibm.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><font size="2" face="sans-serif">Hi Brian,</font><br><br><font size="2" face="sans-serif">For option #3, you can use GPFS Manila
(OpenStack shared file system service) driver for exporting data from protocol
servers to the OpenStack VMs.</font><br><font size="2" face="sans-serif">It was updated to support CES in the
Newton release.</font><br><br><font size="2" face="sans-serif">A new feature of bringing existing filesets
under Manila management has also been added recently.</font><br><br><font size="2" face="sans-serif">Thanks,</font><br><font size="2" face="sans-serif">Gaurang</font><br><font size="2" face="sans-serif">------------------------------<wbr>------------------------------<wbr>------------<br>Gaurang S Tapase<br>Spectrum Scale & OpenStack<br>IBM India Storage Lab, Pune (India)<br>Email : <a href="mailto:gaurang.tapase@in.ibm.com" target="_blank">gaurang.tapase@in.ibm.com</a><br>Phone : <a href="tel:+91%2020%204202%205699" value="+912042025699" target="_blank">+91-20-42025699</a> (W), <a href="tel:+91%2098600%2082042" value="+919860082042" target="_blank">+91-9860082042</a>(Cell)<br>------------------------------<wbr>------------------------------<wbr>-------------</font><br><br><br><br><font size="1" color="#5f5f5f" face="sans-serif">From:      
 </font><font size="1" face="sans-serif">Brian Marshall <<a href="mailto:mimarsh2@vt.edu" target="_blank">mimarsh2@vt.edu</a>></font><span class=""><br><font size="1" color="#5f5f5f" face="sans-serif">To:      
 </font><font size="1" face="sans-serif">gpfsug main discussion
list <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank">gpfsug-discuss@spectrumscale.<wbr>org</a>></font><br></span><font size="1" color="#5f5f5f" face="sans-serif">Date:      
 </font><font size="1" face="sans-serif">01/18/2017 09:52 PM</font><br><font size="1" color="#5f5f5f" face="sans-serif">Subject:    
   </font><font size="1" face="sans-serif">Re: [gpfsug-discuss]
Mounting GPFS data on OpenStack VM</font><br><font size="1" color="#5f5f5f" face="sans-serif">Sent by:    
   </font><font size="1" face="sans-serif"><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank">gpfsug-discuss-bounces@<wbr>spectrumscale.org</a></font><br><hr noshade><div class="HOEnZb"><div class="h5"><br><br><br><font size="2" face="Arial">To answer some more questions:</font><br><br><font size="2" face="Arial">What sort of workload will your Nova VM's
be running?</font><br><font size="2" face="Arial">This is largely TBD but we anticipate webapps
and other non-batch ways of interacting with and post processing data that
has been computed on HPC batch systems.  For example a user might
host a website that allows users to view pieces of a large data set and
do some processing in private cloud or kick off larger jobs on HPC clusters</font><br><br><font size="2" face="Arial">How many VM's are you running?</font><br><font size="2" face="Arial">This work is still in the design / build
phase.  We have 48 servers slated for the project.  At max maybe
500 VMs; again this is a pretty wild estimate.  This is a new service
we are looking to provide</font><br><br><font size="2" face="Arial">What is your Network interconnect between
the Scale Storage cluster and the Nova Compute cluster</font><br><font size="2" face="Arial">Each nova node has a dual 10gigE connection
to switches that uplink to our core 40 gigE switches were NSD Servers are
directly connectly.</font><br><br><font size="2" face="Arial">The information so far has been awesome. 
Thanks everyone.  I am definitely leaning towards option #3 of creating
protocol servers.  Are there any design/build white papers targetting
the virutalization use case?</font><br><br><font size="2" face="Arial">Thanks,<br>Brian</font><br><br><font size="3">On Tue, Jan 17, 2017 at 5:55 PM, Andrew Beattie <</font><a href="mailto:abeattie@au1.ibm.com" target="_blank"><font size="3" color="blue"><u>abeattie@au1.ibm.com</u></font></a><font size="3">>
wrote:</font><br><font size="2" face="Arial">HI Brian,</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">Couple of questions for you:</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">What sort of workload will your Nova VM's
be running?</font><br><font size="2" face="Arial">How many VM's are you running?</font><br><font size="2" face="Arial">What is your Network interconnect between
the Scale Storage cluster and the Nova Compute cluster</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">I have cc'd Jake Carrol from University of
Queensland in on the email as I know they have done some basic performance
testing using Scale to provide storage to Openstack.</font><br><font size="2" face="Arial">One of the issues that they found was the
Openstack network translation was a performance limiting factor.</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">I think from memory the best performance
scenario they had was, when they installed the scale client locally into
the virtual machines</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial"> </font><br><font size="3" color="#80803f" face="Arial"><b>Andrew Beattie</b></font><br><font size="2" face="Arial"><b>Software Defined Storage  - IT Specialist</b></font><br><font size="1" color="#3f8080" face="Arial"><b>Phone: </b></font><font size="1" face="Arial">614-2133-7927</font><br><font size="1" color="#3f8080" face="Arial"><b>E-mail: </b></font><a href="mailto:abeattie@au1.ibm.com" target="_blank"><font size="1" color="#4f4f4f" face="Arial"><u>abeattie@au1.ibm.com</u></font></a><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">----- Original message -----<br>From: Brian Marshall <</font><a href="mailto:mimarsh2@vt.edu" target="_blank"><font size="2" color="blue" face="Arial"><u>mimarsh2@vt.edu</u></font></a><font size="2" face="Arial">><br>Sent by: </font><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank"><font size="2" color="blue" face="Arial"><u>gpfsug-discuss-bounces@<wbr>spectrumscale.org</u></font></a><font size="2" face="Arial"><br>To: gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank"><font size="2" color="blue" face="Arial"><u>gpfsug-discuss@spectrumscale.<wbr>org</u></font></a><font size="2" face="Arial">><br>Cc:<br>Subject: [gpfsug-discuss] Mounting GPFS data on OpenStack VM<br>Date: Wed, Jan 18, 2017 7:51 AM<br>  </font><br><font size="2" face="Arial">UG, </font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">I have a GPFS filesystem.</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">I have a OpenStack private cloud.</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">What is the best way for Nova Compute VMs
to have access to data inside the GPFS filesystem?</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">1)Should VMs mount GPFS directly with a GPFS
client?</font><br><font size="2" face="Arial">2) Should the hypervisor mount GPFS and share
to nova computes?</font><br><font size="2" face="Arial">3) Should I create GPFS protocol servers
that allow nova computes to mount of NFS?</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">All advice is welcome.</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">Best,</font><br><font size="2" face="Arial">Brian Marshall</font><br><font size="2" face="Arial">Virginia Tech</font><br><tt><font size="2">______________________________<wbr>_________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at </font></tt><a href="http://spectrumscale.org/" target="_blank"><tt><font size="2" color="blue"><u>spectrumscale.org</u></font></tt></a><tt><font size="2" color="blue"><u><br></u></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank"><tt><font size="2" color="blue"><u>http://gpfsug.org/mailman/<wbr>listinfo/gpfsug-discuss</u></font></tt></a><br><font size="2" face="Arial"> </font><br><br><tt><font size="2">______________________________<wbr>_________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at <a href="http://spectrumscale.org" target="_blank">spectrumscale.org</a><br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank"><tt><font size="2">http://gpfsug.org/mailman/<wbr>listinfo/gpfsug-discuss</font></tt></a><tt><font size="2"><br></font></tt><br><br></div></div><br>______________________________<wbr>_________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer" target="_blank">http://gpfsug.org/mailman/<wbr>listinfo/gpfsug-discuss</a><br>
<br></blockquote></div><br></div>