<font size=2 face="sans-serif">Hello Stephen,</font><br><br><font size=2 face="sans-serif">There are three licensing models for
Spectrum Scale | GPFS:</font><br><br><font size=2 face="sans-serif">Server</font><br><font size=2 face="sans-serif">FPO</font><br><font size=2 face="sans-serif">Client</font><br><br><font size=2 face="sans-serif">I think the thing you might be missing
is the associated cost per function. </font><br><br><font size=2 face="sans-serif">Regards,</font><br><br><font size=3 color=#8f8f8f face="Arial"><b>Ken Hill</b></font><font size=2 face="Arial"><br>Technical Sales Specialist | Software Defined Solution Sales<br>IBM Systems</font><p><table width=776 style="border-collapse:collapse;"><tr height=8><td width=776 colspan=3 style="border-style:none none none none;border-color:#000000;border-width:0px 0px 0px 0px;padding:0px 0px;"><hr><tr height=8><td width=159 style="border-style:none none none none;border-color:#000000;border-width:0px 0px 0px 0px;padding:0px 0px;"><font size=1 color=#4181c0 face="Arial"><b>Phone:</b></font><font size=3 face="Arial"></font><font size=1 face="Arial">1-540-207-7270</font><font size=1 color=#4181c0 face="Arial"><b><br>E-mail:</b></font><font size=3 face="Arial"> </font><a href=mailto:kenh@us.ibm.com target=_blank><font size=1 color=#5f5f5f face="Arial"><u>kenh@us.ibm.com</u></font></a><td width=616 style="border-style:none none none none;border-color:#000000;border-width:0px 0px 0px 0px;padding:0px 0px;"><div align=right><a href="http://www.ibm.com/us-en/"><img src=cid:_4_C5F22620C5F220700015917C8525807C style="border:0px solid;"></a><font size=3> 
</font><a href="http://www-03.ibm.com/systems/platformcomputing/products/lsf/"><img src=cid:_4_C5F22A3CC5F220700015917C8525807C style="border:0px solid;"></a><font size=3> 
</font><a href="http://www-03.ibm.com/systems/platformcomputing/products/high-performance-services/index.html"><img src=cid:_4_C5F22EB4C5F220700015917C8525807C style="border:0px solid;"></a><font size=3> 
</font><a href="http://www-03.ibm.com/systems/platformcomputing/products/symphony/index.html"><img src=cid:_4_C5F2332CC5F220700015917C8525807C style="border:0px solid;"></a><font size=3> 
</font><a href="http://www-03.ibm.com/systems/storage/spectrum/"><img src=cid:_4_C5F237A4C5F220700015917C8525807C style="border:0px solid;"></a><font size=3> 
</font><a href="http://www-01.ibm.com/software/tivoli/csi/cloud-storage/"><img src=cid:_4_C5F23C1CC5F220700015917C8525807C style="border:0px solid;"></a><font size=3> 
</font><a href="http://www-01.ibm.com/software/tivoli/csi/backup-recovery/"><img src=cid:_4_C5F24094C5F220700015917C8525807C style="border:0px solid;"></a><font size=3> 
</font><a href="http://www-03.ibm.com/systems/storage/tape/ltfs/index.html"><img src=cid:_4_C5F2450CC5F220700015917C8525807C style="border:0px solid;"></a><font size=3> 
</font><a href="http://www-03.ibm.com/systems/storage/spectrum/"><img src=cid:_4_C5F24984C5F220700015917C8525807C style="border:0px solid;"></a><font size=3> 
</font><a href="http://www-03.ibm.com/systems/storage/spectrum/scale/"><img src=cid:_4_C5F24DFCC5F220700015917C8525807C style="border:0px solid;"></a><font size=3> 
</font><a href="https://www.ibm.com/marketplace/cloud/object-storage/us/en-us"><img src=cid:_4_C5F25274C5F220700015917C8525807C style="border:0px solid;"></a><font size=3> 
<br></font><font size=1 face="Arial"><br>2300 Dulles Station Blvd<br>Herndon, VA 20171-6133<br>United States</font></div><td width=6 valign=top style="border-style:none none none none;border-color:#000000;border-width:0px 0px 0px 0px;padding:0px 0px;"></table><br><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">Stephen Ulmer <ulmer@ulmer.org></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">gpfsug main discussion
list <gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">11/30/2016 09:46 PM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">Re: [gpfsug-discuss]
Strategies - servers with local SAS disks</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><font size=3>I don’t understand what FPO provides here that mirroring
doesn’t:</font><ul><li><font size=3>You can still use failure domains — one for each node.</font><li><font size=3>Both still have redundancy for the data; you can lose
a disk or a node.</font><li><font size=3>The data has to be re-striped in the event of a disk failure
— no matter what.</font></ul><br><font size=3>Also, the FPO license doesn’t allow for regular clients
to access the data -- only server and FPO nodes.</font><br><br><font size=3>What am I missing?</font><br><br><font size=3>Liberty,</font><br><br><font size=3>-- </font><br><font size=3>Stephen<br><br></font><br><br><font size=3>On Nov 30, 2016, at 3:51 PM, Andrew Beattie <</font><a href=mailto:abeattie@au1.ibm.com><font size=3 color=blue><u>abeattie@au1.ibm.com</u></font></a><font size=3>>
wrote:</font><br><br><font size=2 face="Arial">Bob,</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">If your not going to use integrated Raid
controllers in the servers, then FPO would seem to be the most resilient
scenario.</font><br><font size=2 face="Arial">yes it has its own overheads, but with that
many drives to manage, a JOBD architecture and manual restriping doesn't
sound like fun</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">If you are going down the path of integrated
raid controllers then any form of distributed raid is probably the best
scenario, Raid 6 obviously.</font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">How many Nodes are you planning on building?
 The more nodes the more value FPO is likely to bring as you can be
more specific in how the data is written to the nodes.</font><br><font size=2 face="Arial"> </font><br><font size=3 color=#80803f face="Arial"><b>Andrew Beattie</b></font><br><font size=2 face="Arial"><b>Software Defined Storage  - IT Specialist</b></font><br><font size=1 color=#3f8080 face="Arial"><b>Phone: </b></font><font size=1 face="Arial">614-2133-7927</font><br><font size=1 color=#3f8080 face="Arial"><b>E-mail: </b></font><a href=mailto:abeattie@au1.ibm.com><font size=1 color=#4f4f4f face="Arial"><u>abeattie@au1.ibm.com</u></font></a><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial"> </font><br><font size=2 face="Arial">----- Original message -----<br>From: "Oesterlin, Robert" <</font><a href=mailto:Robert.Oesterlin@nuance.com><font size=2 color=blue face="Arial"><u>Robert.Oesterlin@nuance.com</u></font></a><font size=2 face="Arial">><br>Sent by: </font><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org"><font size=2 color=blue face="Arial"><u>gpfsug-discuss-bounces@spectrumscale.org</u></font></a><font size=2 face="Arial"><br>To: gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@spectrumscale.org"><font size=2 color=blue face="Arial"><u>gpfsug-discuss@spectrumscale.org</u></font></a><font size=2 face="Arial">><br>Cc:<br>Subject: [gpfsug-discuss] Strategies - servers with local SAS disks<br>Date: Thu, Dec 1, 2016 12:34 AM<br> </font><p><font size=2 face="Arial">Looking for feedback/strategies in setting
up several GPFS servers with local SAS. They would all be part of the same
file system. The systems are all similar in configuration - 70 4TB drives.
</font><p><font size=2 face="Arial"> </font><p><font size=2 face="Arial">Options I’m considering:</font><p><font size=2 face="Arial"> </font><p><font size=2 face="Arial">- Create RAID arrays of the disks on each
server (worried about the RAID rebuild time when a drive fails with 4,
6, 8TB drives)</font><p><font size=2 face="Arial">- No RAID with 2 replicas, single drive per
NSD. When a drive fails, recreate the NSD – but then I need to fix up
the data replication via restripe</font><p><font size=2 face="Arial">- FPO – with multiple failure groups -  letting
the system manage replica placement and then have GPFS due the restripe
on disk failure automatically</font><p><font size=2 face="Arial"> </font><p><font size=2 face="Arial">Comments or other ideas welcome.</font><p><font size=2 face="Arial"> </font><p><font size=2 face="Arial">Bob Oesterlin<br>Sr Principal Storage Engineer, Nuance<br>507-269-0413</font><p><font size=2 face="Times New Roman"> </font><p><font size=2 face="Arial"> </font><p><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at </font></tt><a href=http://spectrumscale.org/><tt><font size=2 color=blue><u>spectrumscale.org</u></font></tt></a><tt><font size=2 color=blue><u><br></u></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target=_blank><tt><font size=2 color=blue><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></tt></a><br><font size=2 face="Arial"> </font><br><font size=3><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at </font><a href=http://spectrumscale.org/><font size=3 color=blue><u>spectrumscale.org</u></font></a><font size=3 color=blue><u><br></u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size=3 color=blue><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><br><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><br><br><BR>