<div><br></div><div dir="auto">First thing I would check is that the GPFS block size is a multiple of a full RAID stripe. It’s been a while since I worked with SVC/FlashSystem performance, but this has been my main issue. So, 8+2p with the default 128KB «chunk size» would work with 1 MB or larger block size.</div><div dir="auto"><br></div><div dir="auto">The other thing was that it’s important to disable prefetching (chsystem -cacheprefetch off), as it will always be prefetching the wrong data because of how GPFS scatters the blocks.</div><div dir="auto"><br></div><div dir="auto">And.. on linux side there’s some max device transfersize setting that has had huge impact on some systems.. But the exact setting escapes me right now..</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">HTH</div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">  -jf</div><div dir="auto"><br></div><div dir="auto"><br><div class="gmail_quote" dir="auto"><div dir="ltr" class="gmail_attr">tir. 23. jan. 2024 kl. 15:05 skrev Petr Plodík <<a href="mailto:petr.plodik@mcomputers.cz">petr.plodik@mcomputers.cz</a>>:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)">Hi, <br>
<br>
we have GPFS cluster with two IBM FlashSystem 7300 systems with HD expansion and 80x 12TB HDD each (in DRAID 8+P+Q), 3 GPFS servers connected via 32G FC. We are doing performance tuning on sequential writes to HDDs and seeing suboptimal performance. After several tests, it turns out, that the bottleneck seems to be the single HDD write performance, which is below 40MB/s and one would expect at least 100MB/s.<br>
<br>
Does anyone have experiences with IBM flashsystem sequential write performance tuning or has these arrays in the infrastructure? We would really appreciate any help/explanation.<br>
<br>
Thank you!<br>
<br>
Petr Plodik<br>
M Computers s.r.o.<br>
<a href="mailto:petr.plodik@mcomputers.cz" target="_blank">petr.plodik@mcomputers.cz</a><br>
<br>
<br>
<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://gpfsug.org" rel="noreferrer" target="_blank">gpfsug.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss_gpfsug.org" rel="noreferrer" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss_gpfsug.org</a><br>
</blockquote></div></div>