<html><head><meta http-equiv="Content-Type" content="text/html charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class=""><div class="">I don’t understand what FPO provides here that mirroring doesn’t:</div><div class=""><ul class="MailOutline"><li class="">You can still use failure domains — one for each node.</li><li class="">Both still have redundancy for the data; you can lose a disk or a node.</li><li class="">The data has to be re-striped in the event of a disk failure — no matter what.</li></ul></div><div class=""><br class=""></div><div class="">Also, the FPO license doesn’t allow for regular clients to access the data -- only server and FPO nodes.</div><div class=""><br class=""></div><div class="">What am I missing?</div><div class=""><br class=""></div><div class="">Liberty,</div><div class=""><br class=""></div><div class="">-- </div><div class=""><div class="">Stephen<br class=""><br class=""><br class="">

</div>
<br class=""><div><blockquote type="cite" class=""><div class="">On Nov 30, 2016, at 3:51 PM, Andrew Beattie <<a href="mailto:abeattie@au1.ibm.com" class="">abeattie@au1.ibm.com</a>> wrote:</div><br class="Apple-interchange-newline"><div class=""><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt"><div dir="ltr" class="">Bob,</div>
<div dir="ltr" class=""> </div>
<div dir="ltr" class="">If your not going to use integrated Raid controllers in the servers, then FPO would seem to be the most resilient scenario.</div>
<div dir="ltr" class="">yes it has its own overheads, but with that many drives to manage, a JOBD architecture and manual restriping doesn't sound like fun</div>
<div dir="ltr" class=""> </div>
<div dir="ltr" class="">If you are going down the path of integrated raid controllers then any form of distributed raid is probably the best scenario, Raid 6 obviously.</div>
<div dir="ltr" class=""> </div>
<div dir="ltr" class="">How many Nodes are you planning on building?  The more nodes the more value FPO is likely to bring as you can be more specific in how the data is written to the nodes.</div>
<div dir="ltr" class=""> </div>
<div dir="ltr" class=""><div class="mail-signature-container"><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt"><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt"><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt"><div dir="ltr" style="margin-top: 20px;" class=""><div style="font-size: 12pt; font-weight: bold; font-family: sans-serif; color: #7C7C5F;" class="">Andrew Beattie</div>
<div style="font-size: 10pt; font-weight: bold; font-family: sans-serif;" class="">Software Defined Storage  - IT Specialist</div>
<div style="font-size: 8pt; font-family: sans-serif; margin-top: 10px;" class=""><div class=""><span style="font-weight: bold; color: #336699;" class="">Phone: </span>614-2133-7927</div>
<div class=""><span style="font-weight: bold; color: #336699;" class="">E-mail: </span><a href="mailto:abeattie@au1.ibm.com" style="color: #555" class="">abeattie@au1.ibm.com</a></div></div></div></div></div></div></div></div>
<div dir="ltr" class=""> </div>
<div dir="ltr" class=""> </div>
<blockquote data-history-content-modified="1" dir="ltr" style="border-left:solid #aaaaaa 2px; margin-left:5px; padding-left:5px; direction:ltr; margin-right:0px" class="">----- Original message -----<br class="">From: "Oesterlin, Robert" <<a href="mailto:Robert.Oesterlin@nuance.com" class="">Robert.Oesterlin@nuance.com</a>><br class="">Sent by: <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" class="">gpfsug-discuss-bounces@spectrumscale.org</a><br class="">To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org" class="">gpfsug-discuss@spectrumscale.org</a>><br class="">Cc:<br class="">Subject: [gpfsug-discuss] Strategies - servers with local SAS disks<br class="">Date: Thu, Dec 1, 2016 12:34 AM<br class=""> <br class=""><!--Notes ACF
<meta http-equiv="Content-Type" content="text/html; charset=utf8" >-->
<div class=""><p class=""><span style="font-size:11.0pt" class="">Looking for feedback/strategies in setting up several GPFS servers with local SAS. They would all be part of the same file system. The systems are all similar in configuration - 70 4TB drives. <o:p class=""></o:p></span></p><p class=""><span style="font-size:11.0pt" class=""><o:p class=""> </o:p></span></p><p class=""><span style="font-size:11.0pt" class="">Options I’m considering:<o:p class=""></o:p></span></p><p class=""><span style="font-size:11.0pt" class=""><o:p class=""> </o:p></span></p><p class=""><span style="font-size:11.0pt" class="">- Create RAID arrays of the disks on each server (worried about the RAID rebuild time when a drive fails with 4, 6, 8TB drives)<o:p class=""></o:p></span></p><p class=""><span style="font-size:11.0pt" class="">- No RAID with 2 replicas, single drive per NSD. When a drive fails, recreate the NSD – but then I need to fix up the data replication via restripe<o:p class=""></o:p></span></p><p class=""><span style="font-size:11.0pt" class="">- FPO – with multiple failure groups -  letting the system manage replica placement and then have GPFS due the restripe on disk failure automatically<o:p class=""></o:p></span></p><p class=""><span style="font-size:11.0pt" class=""><o:p class=""> </o:p></span></p><p class=""><span style="font-size:11.0pt" class="">Comments or other ideas welcome.<o:p class=""></o:p></span></p><p class=""><span style="font-size:11.0pt" class=""><o:p class=""> </o:p></span></p><p class="">Bob Oesterlin<br class="">Sr Principal Storage Engineer, Nuance<br class="">507-269-0413<o:p class=""></o:p></p><p class=""><span style="font-family:"Times New Roman"" class=""><o:p class=""> </o:p></span></p><p class=""><o:p class=""> </o:p></p></div>
<div class=""><font face="Default Monospace,Courier New,Courier,monospace" size="2" class="">_______________________________________________<br class="">gpfsug-discuss mailing list<br class="">gpfsug-discuss at <a href="http://spectrumscale.org" class="">spectrumscale.org</a><br class=""><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank" class="">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></div></blockquote>
<div dir="ltr" class=""> </div></div><br class="">

_______________________________________________<br class="">gpfsug-discuss mailing list<br class="">gpfsug-discuss at <a href="http://spectrumscale.org" class="">spectrumscale.org</a><br class=""><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" class="">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br class=""></div></blockquote></div><br class=""></div></body></html>