<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    Can all 4 NSD servers see all existing storwize arrays across both
    DC's?<br>
    <br>
    Cheers,<br>
    Barry<br>
    <br>
    <br>
    <div class="moz-cite-prefix">On 03/01/2016 21:56, Simon Thompson
      (Research Computing - IT Services) wrote:<br>
    </div>
    <blockquote
      cite="mid:CF45EE16DEF2FE4B9AA7FF2B6EE26545D16BD321@EX13.adf.bham.ac.uk"
      type="cite">
      <pre wrap="">I currently have 4 NSD servers in a cluster, two pairs in two data centres. Data and metadata replication is currently set to 2 with metadata sitting on sas drivers in a storewise array. I also have a vm floating between the two data centres to guarantee quorum in one only in the event of split brain.

Id like to add some ssd for metadata.

Should I:

Add raid1 ssd to the storewise?

Add local ssd to the nsd servers?

If I did the second, should I 
 add ssd to each nsd server (not raid 1) and set each in a different failure group and make metadata replication of 4.
 add ssd to each nsd server as raid 1, use the same failure group for each data centre pair?
 add ssd to each nsd server not raid 1, use the dame failure group for each data centre pair?

Or something else entirely?

What I want so survive is a split data centre situation or failure of a single nsd server at any point...

Thoughts? Comments?

I'm thinking the first of the nsd local options uses 4 writes as does the second, but each nsd server then has a local copy of the metatdata locally and ssd fails, in which case it should be able to get it from its local partner pair anyway (with readlocalreplica)?

Id like a cost competitive solution that gives faster performance than the current sas drives.

Was also thinking I might add an ssd to each nsd server for system.log pool for hawc as well...

Thanks

Simon
_______________________________________________
gpfsug-discuss mailing list
gpfsug-discuss at spectrumscale.org
<a class="moz-txt-link-freetext" href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a>
</pre>
    </blockquote>
    <br>
    <div class="moz-signature">-- <br>
      <!-- HTML Codes by Quackit.com -->
      <title>
      </title>
      <meta name="viewport" content="width=device-width,
        initial-scale=1">
      <style type="text/css">
body {background-color:ffffff;background-repeat:no-repeat;background-position:top left;background-attachment:fixed;}
h1{font-family:Cursive;color:000000;}
p {font-family:Arial;font-size:15px;font-style:normal;font-weight:normal;color:000000;}
</style>
      <p>Barry Evans<br>
        Technical Director & Co-Founder<br>
        <font color="red">Pixit Media</font><br>
        Mobile: +44 (0)7950 666 248<br>
        <a href="http://www.pixitmedia.com">http://www.pixitmedia.com</a></p>
    </div>
  </body>
</html>

<br>
<div><img src="http://www.pixitmedia.com/sig/sig-cio.jpg"></div><div>This email is confidential in that it is intended for the exclusive attention of the addressee(s) indicated. If you are not the intended recipient, this email should not be read or disclosed to any other person. Please notify the sender immediately and delete this email from your computer system. Any opinions expressed are not necessarily those of the company from which this email was sent and, whilst to the best of our knowledge no viruses or defects exist, no responsibility can be accepted for any loss or damage arising from its receipt or subsequent use of this email.</div>