<p dir="ltr">I am not sure what exactly you are looking for but all blockdevices are opened with O_DIRECT , we never cache anything on this layer .</p>
<br><div class="gmail_quote"><div dir="ltr">On Thu, Sep 7, 2017, 7:11 PM Aaron Knister <<a href="mailto:aaron.s.knister@nasa.gov">aaron.s.knister@nasa.gov</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Everyone,<br>
<br>
This is something that's come up in the past and has recently resurfaced<br>
with a project I've been working on, and that is-- it seems to me as<br>
though mmfsd never attempts to flush the cache of the block devices its<br>
writing to (looking at blktrace output seems to confirm this). Is this<br>
actually the case? I've looked at the gpl headers for linux and I don't<br>
see any sign of blkdev_fsync, blkdev_issue_flush, WRITE_FLUSH, or<br>
REQ_FLUSH. I'm sure there's other ways to trigger this behavior that<br>
GPFS may very well be using that I've missed. That's why I'm asking :)<br>
<br>
I figure with FPO being pushed as an HDFS replacement using commodity<br>
drives this feature has *got* to be in the code somewhere.<br>
<br>
-Aaron<br>
<br>
--<br>
Aaron Knister<br>
NASA Center for Climate Simulation (Code 606.2)<br>
Goddard Space Flight Center<br>
(301) 286-2776<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>
</blockquote></div>