<div dir="ltr"><div>if this is a new cluster and you use reasonable new HW, i probably would start with just the following settings on the clients :</div><div><br></div><div>pagepool=4g,workerThreads=256,maxStatCache=0,maxFilesToCache=256k</div><div><br></div><div>depending on what storage you use and what workload you have you may have to set a couple of other settings too, but that should be a good start.</div><div>we plan to make this whole process significant easier in the future, The Next Major Scale release will eliminate the need for another ~20 parameters in special cases and we will simplify the communication setup a lot too.</div><div>beyond that we started working on introducing tuning suggestions based on the running system environment but there is no release targeted for that yet.</div><div><br></div><div>Sven</div><div><br></div><br><div class="gmail_quote"><div dir="ltr">On Tue, Oct 10, 2017 at 1:42 AM John Hearns <<a href="mailto:john.hearns@asml.com" target="_blank">john.hearns@asml.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">





<div lang="EN-US" link="blue" vlink="purple">
<div class="m_7990267161483165504m_6285488572933630155WordSection1">
<p class="MsoNormal">May I ask how to size pagepool on clients?  Somehow I hear an enormous tin can being opened behind me… and what sounds like lots of worms…<u></u><u></u></p>
<p class="MsoNormal"><u></u> <u></u></p>
<p class="MsoNormal">Anyway, I currently have mmhealth reporting gpfs_pagepool_small. Pagepool is set to 1024M on clients,<u></u><u></u></p>
<p class="MsoNormal">and I now note the documentation says you get this warning when pagepool is lower or equal to 1GB<u></u><u></u></p>
<p class="MsoNormal">We did do some IOR benchmarking which shows better performance with an increased pagepool size.<u></u><u></u></p>
<p class="MsoNormal"><u></u> <u></u></p>
<p class="MsoNormal">I am looking for some rules of thumb for sizing for an 128Gbyte RAM client.<u></u><u></u></p>
<p class="MsoNormal">And yup, I know the answer will be ‘depends on your workload’<u></u><u></u></p>
<p class="MsoNormal">I agree though that 1024M is too low.<u></u><u></u></p>
<p class="MsoNormal"><u></u> <u></u></p>
<p class="MsoNormal">Illya,<a href="mailto:kuryakin@uncle.int" target="_blank">kuryakin@uncle.int</a><u></u><u></u></p>
</div>
-- The information contained in this communication and any attachments is confidential and may be privileged, and is for the sole use of the intended recipient(s). Any unauthorized review, use, disclosure or distribution is prohibited. Unless explicitly stated
 otherwise in the body of this communication or the attachment thereto (if any), the information is provided on an AS-IS basis without any express or implied warranties or liabilities. To the extent you are relying on this information, you are doing so at your
 own risk. If you are not the intended recipient, please notify the sender immediately by replying to this message and destroy all copies of this message and any attachments. Neither the sender nor the company/group of companies he or she represents shall be
 liable for the proper and complete transmission of the information contained in this communication, or for any delay in its receipt.
</div>

_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>
</blockquote></div></div>