<div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div dir="ltr" >Bob,</div>
<div dir="ltr" > </div>
<div dir="ltr" >If your not going to use integrated Raid controllers in the servers, then FPO would seem to be the most resilient scenario.</div>
<div dir="ltr" >yes it has its own overheads, but with that many drives to manage, a JOBD architecture and manual restriping doesn't sound like fun</div>
<div dir="ltr" > </div>
<div dir="ltr" >If you are going down the path of integrated raid controllers then any form of distributed raid is probably the best scenario, Raid 6 obviously.</div>
<div dir="ltr" > </div>
<div dir="ltr" >How many Nodes are you planning on building?  The more nodes the more value FPO is likely to bring as you can be more specific in how the data is written to the nodes.</div>
<div dir="ltr" > </div>
<div dir="ltr" ><div class="mail-signature-container" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt" ><div dir="ltr" style="margin-top: 20px;" ><div style="font-size: 12pt; font-weight: bold; font-family: sans-serif; color: #7C7C5F;" >Andrew Beattie</div>
<div style="font-size: 10pt; font-weight: bold; font-family: sans-serif;" >Software Defined Storage  - IT Specialist</div>
<div style="font-size: 8pt; font-family: sans-serif; margin-top: 10px;" ><div><span style="font-weight: bold; color: #336699;" >Phone: </span>614-2133-7927</div>
<div><span style="font-weight: bold; color: #336699;" >E-mail: </span><a href="mailto:abeattie@au1.ibm.com" style="color: #555" >abeattie@au1.ibm.com</a></div></div></div></div></div></div></div></div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<blockquote data-history-content-modified="1" dir="ltr" style="border-left:solid #aaaaaa 2px; margin-left:5px; padding-left:5px; direction:ltr; margin-right:0px" >----- Original message -----<br>From: "Oesterlin, Robert" <Robert.Oesterlin@nuance.com><br>Sent by: gpfsug-discuss-bounces@spectrumscale.org<br>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Cc:<br>Subject: [gpfsug-discuss] Strategies - servers with local SAS disks<br>Date: Thu, Dec 1, 2016 12:34 AM<br> <br><!--Notes ACF
<meta http-equiv="Content-Type" content="text/html; charset=utf8" >-->
<div><p><span style="font-size:11.0pt" >Looking for feedback/strategies in setting up several GPFS servers with local SAS. They would all be part of the same file system. The systems are all similar in configuration - 70 4TB drives. <o:p></o:p></span></p>
<p><span style="font-size:11.0pt" ><o:p> </o:p></span></p>
<p><span style="font-size:11.0pt" >Options Iā€™m considering:<o:p></o:p></span></p>
<p><span style="font-size:11.0pt" ><o:p> </o:p></span></p>
<p><span style="font-size:11.0pt" >- Create RAID arrays of the disks on each server (worried about the RAID rebuild time when a drive fails with 4, 6, 8TB drives)<o:p></o:p></span></p>
<p><span style="font-size:11.0pt" >- No RAID with 2 replicas, single drive per NSD. When a drive fails, recreate the NSD ā€“ but then I need to fix up the data replication via restripe<o:p></o:p></span></p>
<p><span style="font-size:11.0pt" >- FPO ā€“ with multiple failure groups -  letting the system manage replica placement and then have GPFS due the restripe on disk failure automatically<o:p></o:p></span></p>
<p><span style="font-size:11.0pt" ><o:p> </o:p></span></p>
<p><span style="font-size:11.0pt" >Comments or other ideas welcome.<o:p></o:p></span></p>
<p><span style="font-size:11.0pt" ><o:p> </o:p></span></p>
<p>Bob Oesterlin<br>Sr Principal Storage Engineer, Nuance<br>507-269-0413<o:p></o:p></p>
<p><span style="font-family:"Times New Roman"" ><o:p> </o:p></span></p>
<p><o:p> </o:p></p></div>
<div><font face="Default Monospace,Courier New,Courier,monospace" size="2" >_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank" >http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></div></blockquote>
<div dir="ltr" > </div></div><BR>