<div dir="ltr">when you say 'synchronous write' what do you mean by that  ? <div>if you are talking about using direct i/o (O_DIRECT flag), they don't leverage HAWC data path, its by design.</div><div><br></div><div>sven</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Aug 1, 2016 at 11:36 AM, Tejas Rao <span dir="ltr"><<a href="mailto:raot@bnl.gov" target="_blank">raot@bnl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">I have enabled write cache (HAWC) by running the below commands. The recovery logs are supposedly placed in the replicated system metadata pool (SSDs). I do not have a "system.log" pool as it is only needed if recovery logs are stored on the client nodes.<br>
<br>
mmchfs gpfs01 --write-cache-threshold 64K<br>
mmchfs gpfs01 -L 1024M<br>
mmchconfig logPingPongSector=no<br>
<br>
I have recycled the daemon on all nodes in the cluster (including the NSD nodes).<br>
<br>
I still see small synchronous writes (4K) from the clients going to the data drives (data pool). I am checking this by looking at "mmdiag --iohist" output. Should they not be going to the system pool?<br>
<br>
Do I need to do something else? How can I confirm that HAWC is working as advertised?<br>
<br>
Thanks.<br>
<br>
<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>
</blockquote></div><br></div>