<div dir="ltr">The filesystem I'm working with has about 100M files and 80Tb of data.<br><br>What kind of metadata latency do you observe?<br>I did a mmdiag --iohist and filtered out all of the md devices and averaged over reads and writes.  I'm seeing ~.28ms on a one off dump.  The pure array which we have is 10G iscsi connected and is reporting average .25ms.<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Mar 22, 2017 at 6:47 AM, Sobey, Richard A <span dir="ltr"><<a href="mailto:r.sobey@imperial.ac.uk" target="_blank">r.sobey@imperial.ac.uk</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">





<div link="blue" vlink="purple" lang="EN-GB">
<div class="m_108158913754399109WordSection1">
<p class="MsoNormal"><span style="font-size:11.0pt;font-family:"Calibri",sans-serif;color:#1f497d">We’re also snapshotting 4 times a day. Filesystem isn’t tremendously busy at all but we’re creating snaps for each fileset.<u></u><u></u></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;font-family:"Calibri",sans-serif;color:#1f497d"><u></u> <u></u></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;font-family:"Calibri",sans-serif;color:#1f497d">[root@cesnode tmp]# mmlssnapshot gpfs | wc -l<u></u><u></u></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;font-family:"Calibri",sans-serif;color:#1f497d">6916<u></u><u></u></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;font-family:"Calibri",sans-serif;color:#1f497d"><u></u> <u></u></span></p>
<p class="MsoNormal"><b><span style="font-size:11.0pt;font-family:"Calibri",sans-serif" lang="EN-US">From:</span></b><span style="font-size:11.0pt;font-family:"Calibri",sans-serif" lang="EN-US"> <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank">gpfsug-discuss-bounces@<wbr>spectrumscale.org</a> [mailto:<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank">gpfsug-discuss-<wbr>bounces@spectrumscale.org</a>]
<b>On Behalf Of </b>J. Eric Wonderley<br>
<b>Sent:</b> 20 March 2017 14:03<span class=""><br>
<b>To:</b> gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank">gpfsug-discuss@spectrumscale.<wbr>org</a>><br>
</span><span class=""><b>Subject:</b> [gpfsug-discuss] snapshots & tiering in a busy filesystem<u></u><u></u></span></span></p>
<p class="MsoNormal"><u></u> <u></u></p>
<div>
<p class="MsoNormal">I found this link and it didn't give me much hope for doing snapshots & backup in a home(busy) filesystem:<u></u><u></u></p><span class="">
<div>
<p class="MsoNormal" style="margin-bottom:12.0pt"><a href="http://www.spectrumscale.org/pipermail/gpfsug-discuss/2013-February/000200.html" target="_blank">http://www.spectrumscale.org/<wbr>pipermail/gpfsug-discuss/2013-<wbr>February/000200.html</a><u></u><u></u></p>
</div>
<div>
<p class="MsoNormal">I realize this is dated and I wondered if qos etc have made is a tolerable thing to do now.  Gpfs I think was barely above v3.5 in mid 2013.<u></u><u></u></p>
</div>
</span></div>
</div>
</div>

<br>______________________________<wbr>_________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer" target="_blank">http://gpfsug.org/mailman/<wbr>listinfo/gpfsug-discuss</a><br>
<br></blockquote></div><br></div>