<div dir="ltr"><div style="font-family:arial,helvetica,sans-serif;font-size:14px">To answer some more questions:</div><div dir="ltr" style="font-family:arial,helvetica,sans-serif;font-size:14px"><br></div><div dir="ltr" style="font-family:arial,helvetica,sans-serif;font-size:14px">What sort of workload will your Nova VM's be running?</div><div style="font-family:arial,helvetica,sans-serif;font-size:14px">This is largely TBD but we anticipate webapps and other non-batch ways of interacting with and post processing data that has been computed on HPC batch systems.  For example a user might host a website that allows users to view pieces of a large data set and do some processing in private cloud or kick off larger jobs on HPC clusters</div><div style="font-family:arial,helvetica,sans-serif;font-size:14px"><br></div><div dir="ltr" style="font-family:arial,helvetica,sans-serif;font-size:14px">How many VM's are you running?</div><div style="font-family:arial,helvetica,sans-serif;font-size:14px">This work is still in the design / build phase.  We have 48 servers slated for the project.  At max maybe 500 VMs; again this is a pretty wild estimate.  This is a new service we are looking to provide</div><div style="font-family:arial,helvetica,sans-serif;font-size:14px"><br></div><div dir="ltr" style="font-family:arial,helvetica,sans-serif;font-size:14px">What is your Network interconnect between the Scale Storage cluster and the Nova Compute cluster</div><div style="font-family:arial,helvetica,sans-serif;font-size:14px">Each nova node has a dual 10gigE connection to switches that uplink to our core 40 gigE switches were NSD Servers are directly connectly.</div><div style="font-family:arial,helvetica,sans-serif;font-size:14px"><br></div><div style="font-family:arial,helvetica,sans-serif;font-size:14px">The information so far has been awesome.  Thanks everyone.  I am definitely leaning towards option #3 of creating protocol servers.  Are there any design/build white papers targetting the virutalization use case?</div><div style="font-family:arial,helvetica,sans-serif;font-size:14px"><br></div><div style="font-family:arial,helvetica,sans-serif;font-size:14px">Thanks,<br>Brian</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Jan 17, 2017 at 5:55 PM, Andrew Beattie <span dir="ltr"><<a href="mailto:abeattie@au1.ibm.com" target="_blank">abeattie@au1.ibm.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="m_-4033856671712097140socmaildefaultfont" dir="ltr" style="font-family:Arial,Helvetica,sans-serif;font-size:10.5pt"><div dir="ltr">HI Brian,</div>
<div dir="ltr"> </div>
<div dir="ltr"> </div>
<div dir="ltr">Couple of questions for you:</div>
<div dir="ltr"> </div>
<div dir="ltr">What sort of workload will your Nova VM's be running?</div>
<div dir="ltr">How many VM's are you running?</div>
<div dir="ltr">What is your Network interconnect between the Scale Storage cluster and the Nova Compute cluster</div>
<div dir="ltr"> </div>
<div dir="ltr">I have cc'd Jake Carrol from University of Queensland in on the email as I know they have done some basic performance testing using Scale to provide storage to Openstack.</div>
<div dir="ltr">One of the issues that they found was the Openstack network translation was a performance limiting factor.</div>
<div dir="ltr"> </div>
<div dir="ltr">I think from memory the best performance scenario they had was, when they installed the scale client locally into the virtual machines</div>
<div dir="ltr"> </div>
<div dir="ltr"> </div>
<div dir="ltr"><div class="m_-4033856671712097140socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt"><div class="m_-4033856671712097140socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt"><div class="m_-4033856671712097140socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt"><div dir="ltr" style="margin-top:20px"><div style="font-size:12pt;font-weight:bold;font-family:sans-serif;color:#7c7c5f">Andrew Beattie</div>
<div style="font-size:10pt;font-weight:bold;font-family:sans-serif">Software Defined Storage  - IT Specialist</div>
<div style="font-size:8pt;font-family:sans-serif;margin-top:10px"><div><span style="font-weight:bold;color:#336699">Phone: </span>614-2133-7927</div>
<div><span style="font-weight:bold;color:#336699">E-mail: </span><a href="mailto:abeattie@au1.ibm.com" style="color:#555" target="_blank">abeattie@au1.ibm.com</a></div></div></div></div></div></div></div>
<div dir="ltr"> </div>
<div dir="ltr"> </div>
<blockquote dir="ltr" style="border-left:solid #aaaaaa 2px;margin-left:5px;padding-left:5px;direction:ltr;margin-right:0px"><div><div class="h5">----- Original message -----<br>From: Brian Marshall <<a href="mailto:mimarsh2@vt.edu" target="_blank">mimarsh2@vt.edu</a>><br>Sent by: <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank">gpfsug-discuss-bounces@<wbr>spectrumscale.org</a><br>To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank">gpfsug-discuss@spectrumscale.<wbr>org</a>><br>Cc:<br>Subject: [gpfsug-discuss] Mounting GPFS data on OpenStack VM<br>Date: Wed, Jan 18, 2017 7:51 AM<br> 
<div dir="ltr">UG,
<div> </div>
<div>I have a GPFS filesystem.</div>
<div> </div>
<div>I have a OpenStack private cloud.</div>
<div> </div>
<div>What is the best way for Nova Compute VMs to have access to data inside the GPFS filesystem?</div>
<div> </div>
<div>1)Should VMs mount GPFS directly with a GPFS client?</div>
<div>2) Should the hypervisor mount GPFS and share to nova computes?</div>
<div>3) Should I create GPFS protocol servers that allow nova computes to mount of NFS?</div>
<div> </div>
<div>All advice is welcome.</div>
<div> </div>
<div> </div>
<div>Best,</div>
<div>Brian Marshall</div>
<div>Virginia Tech</div></div>
</div></div><div><font face="Default Monospace,Courier New,Courier,monospace" size="2">______________________________<wbr>_________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at <a href="http://spectrumscale.org" target="_blank">spectrumscale.org</a><br><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank">http://gpfsug.org/mailman/<wbr>listinfo/gpfsug-discuss</a></font></div></blockquote>
<div dir="ltr"> </div></div><br>

</blockquote></div><br></div>