<div dir="ltr">Hi JAB,<div><br></div><div>Sound interesting, however, I'm actually a newcomer to Scale, I wish I could share the joy of mixing that. I guess maybe it is something similar to LSF RVU/UVUs? Thanks for sharing your experience anyway.</div><div><br></div><div>Hi Carl,</div><div><br></div><div>I just want to let you know that I have got your explanation, and I understand it now. Thanks.</div><div><br></div><div>Not sure If I should always reply a "thank you" or "I've got it" in the mailing list, or better just do it privately. Same I'm new to mailing list too, so please let me know if I should not reply it publicly. </div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Apr 17, 2020 at 6:50 PM Jonathan Buzzard <<a href="mailto:jonathan.buzzard@strath.ac.uk">jonathan.buzzard@strath.ac.uk</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On 17/04/2020 11:31, T.A. Yeep wrote:<br>
> Hi Carl,<br>
> <br>
> I'm confused here, in the previous email it was said *And for ESS, it is <br>
> licensed Per Drive with different prices for HDDs and SSDs.*<br>
> <br>
> But then you mentioned in below email that:<br>
> But new customers and new OEM systems are *all licensed by Capacity. <br>
> This also applies to IBM's own ESS*: you can keep upgrading your old (if <br>
> hardware is supported) gen 1 ESS on Sockets, but if you replace it with <br>
> *a new ESS, that will come with capacity licenses*.<br>
> <br>
> Now the question, ESS is license per Drive or by capacity?<br>
> <br>
<br>
Well by drive is "capacity" based licensing unless you have some sort of <br>
magical infinite capacity drives :-)<br>
<br>
Under the PVU scheme if you know what you are doing you could game the <br>
system. For example get a handful of servers get PVU licenses for them <br>
create a GPFS file system handing off the back using say Fibre Channel <br>
and cheap FC attached arrays (Dell MD3000 series springs to mind) and <br>
then hang many PB off the back. I could using this scheme create a 100PB <br>
filesystem for under a thousand PVU of GPFS server licenses. Add in <br>
another cluster for protocol nodes and if you are not mounting on HPC <br>
nodes that's a winner :-)<br>
<br>
In a similar manner I use a pimped out ancient Dell R300 with dual core <br>
Xeon for backing up my GPFS filesystem because it's 100PVU of TSM <br>
licensing and I am cheap, and besides it is more than enough grunt for <br>
the job. A new machine would be 240 PVU minimum (4*70). I plan on <br>
replacing the PERC SAS6 card with a H710 and new internal cabling to run <br>
RHEL8 :-)<br>
<br>
<br>
JAB.<br>
<br>
-- <br>
Jonathan A. Buzzard                         Tel: +44141-5483420<br>
HPC System Administrator, ARCHIE-WeSt.<br>
University of Strathclyde, John Anderson Building, Glasgow. G4 0NG<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><font face="arial, helvetica, sans-serif"><div>Best regards 
<div><div><b><font size="2">T.A. Yeep<br></font></b>Mobile: 016-719 8506 | Tel/Fax: 03-6261 7237 | <a href="http://www.robusthpc.com" target="_blank">www.robusthpc.com</a></div></div></div><div><br></div><div><br></div></font></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>