<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; color: rgb(0, 0, 0); font-size: 14px; font-family: Helvetica, sans-serif;">
<div>
<div>Hi Jamie</div>
<div><br>
</div>
<div>I have some fairly large clusters (tho not as large as you describe) running on “roll your own” storage subsystem of various types. You’re asking a broad question here on performance and rebuild times. I can’t speak to a comparison with ESS (I’m sure IBM
 can comment) but if you want to discuss some of my experiences with larger clusters, HD, performace (multi PB) I’d be happy to do so. You can drop me a note: <span style="font-family: Helvetica;">robert.oesterlin@nuance.com and we can chat at length.</span></div>
<div>
<div id="">
<div style="color: rgb(0, 0, 0); font-family: Calibri, sans-serif; font-size: 14px;">
<span style="font-family: Calibri; font-size: medium;"><br>
</span></div>
<div style="color: rgb(0, 0, 0); font-family: Helvetica, sans-serif; font-size: 14px;">
<font face="Helvetica">Bob Oesterlin<br>
Sr Storage Engineer, Nuance HPC Grid<br>
<br>
</font></div>
<div style="color: rgb(0, 0, 0); font-family: Calibri, sans-serif; font-size: 14px;">
<br>
</div>
</div>
</div>
</div>
<div><br>
</div>
<span id="OLK_SRC_BODY_SECTION">
<div style="font-family:Calibri; font-size:12pt; text-align:left; color:black; BORDER-BOTTOM: medium none; BORDER-LEFT: medium none; PADDING-BOTTOM: 0in; PADDING-LEFT: 0in; PADDING-RIGHT: 0in; BORDER-TOP: #b5c4df 1pt solid; BORDER-RIGHT: medium none; PADDING-TOP: 3pt">
<span style="font-weight:bold">From: </span><<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org">gpfsug-discuss-bounces@spectrumscale.org</a>> on behalf of Jaime Pinto <<a href="mailto:pinto@scinet.utoronto.ca">pinto@scinet.utoronto.ca</a>><br>
<span style="font-weight:bold">Reply-To: </span>gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a>><br>
<span style="font-weight:bold">Date: </span>Tuesday, March 15, 2016 at 2:39 PM<br>
<span style="font-weight:bold">To: </span>"<a href="mailto:gpfsug-discuss@gpfsug.org">gpfsug-discuss@gpfsug.org</a>" <<a href="mailto:gpfsug-discuss@gpfsug.org">gpfsug-discuss@gpfsug.org</a>><br>
<span style="font-weight:bold">Subject: </span>[gpfsug-discuss] Use of commodity HDs on large GPFS client base clusters?<br>
</div>
<div><br>
</div>
<div>
<div>
<div>I'd like to hear about performance consideration from sites that may  </div>
<div>be using "non-IBM sanctioned" storage hardware or appliance, such as  </div>
<div>DDN, GSS, ESS (we have all of these).</div>
<div><br>
</div>
<div>For instance, how could that compare with ESS, which I understand has  </div>
<div>some sort of "dispersed parity" feature, that substantially diminishes  </div>
<div>rebuilt time in case of HD failures.</div>
<div><br>
</div>
<div>I'm particularly interested on HPC sites with 5000+ clients mounting  </div>
<div>such commodity NSD's+HD's setup.</div>
<div><br>
</div>
<div>Thanks</div>
<div>Jaime</div>
<div><br>
</div>
<div><br>
</div>
<div>---</div>
<div>Jaime Pinto</div>
<div>SciNet HPC Consortium  - Compute/Calcul Canada</div>
<div>www.scinet.utoronto.ca - www.computecanada.org</div>
<div>University of Toronto</div>
<div>256 McCaul Street, Room 235</div>
<div>Toronto, ON, M5T1W5</div>
<div>P: 416-978-2755</div>
<div>C: 416-505-1477</div>
<div><br>
</div>
<div>----------------------------------------------------------------</div>
<div>This message was sent using IMP at SciNet Consortium, University of Toronto.</div>
<div><br>
</div>
<div><br>
</div>
<div>_______________________________________________</div>
<div>gpfsug-discuss mailing list</div>
<div>gpfsug-discuss at spectrumscale.org</div>
<div><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=CwICAg&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=UIC7jY_blq8j34WiQM1a8cheHzbYW0sYS-ofA3if_Hk&s=MtunFkJSGpXWNdEkMqluTY-CYIC4uaMz7LiZ7JFob8c&e=">https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=CwICAg&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=UIC7jY_blq8j34WiQM1a8cheHzbYW0sYS-ofA3if_Hk&s=MtunFkJSGpXWNdEkMqluTY-CYIC4uaMz7LiZ7JFob8c&e=</a>
</div>
<div><br>
</div>
</div>
</div>
</span>
</body>
</html>