<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">
Hi yet again all,
<div class=""><br class="">
</div>
<div class="">Well, this has turned out to be an enlightening and surprising morning in GPFS land… </div>
<div class=""><br class="">
</div>
<div class="">What prompted my question below is this … I am looking to use the new QoS features in GPFS 4.2.  I have QoS enabled and am trying to get a baseline of IOPs so that I can determine how much I want to assign to the maintenance class (currently both
 maintenance and other are set to unlimited).  To do this, I fired off a bonnie++ test from each of my NSD servers.</div>
<div class=""><br class="">
</div>
<div class="">The filesystem in question has two storage pools, the system pool and the capacity pool.  The system pool is comprised of a couple of metadata only disks (SSD-based RAID 1 mirrors) and several data only disks (spinning HD-based RAID 6), while
 the capacity pool is comprised exclusively of data only disks (RAID 6).</div>
<div class=""><br class="">
</div>
<div class="">When the bonnie++’s were creating, reading, and rewriting the big file they create I was quite surprised to see mmlsqos show higher IOP’s on the capacity pool than the system pool by a factor of 10!  As I was expecting those files to be being
 written to the system pool, this was quite surprising to me.  Once I found the mmlsattr command, I ran it on one of the files being created and saw that it was indeed assigned to the capacity pool.  The bonnie++’s finished before I could check the other files.</div>
<div class=""><br class="">
</div>
<div class="">I don’t have any file placement policies in effect for this filesystem, only file migration policies (each weekend any files in the system pool with an atime > 60 days get moved to the capacity pool and any files in the capacity pool with an atime
 < 60 days get moved to the system pool).</div>
<div class=""><br class="">
</div>
<div class="">In the GPFS 4.2 Advanced Administration Guide, it states, “If a GPFS file system does not have a placement policy installed, all the data is stored in the first data storage pool.”</div>
<div class=""><br class="">
</div>
<div class="">This filesystem was initially created in 2010 and at that time consisted only of the system pool.  The capacity pool was not created until some years (2014?  2015?  don’t remember for sure) later.  I was under the obviously mistaken impression
 that the “first” data storage pool was the system pool, but that is clearly not correct.</div>
<div class=""><br class="">
</div>
<div class="">So my first question is, what is the definition of “the first storage pool?” and my second question is, can the documentation be updated with the answer to my first question since it’s clearly ambiguous as written now?  Thanks…</div>
<div class=""><br class="">
</div>
<div class="">Kevin</div>
<div class=""><br class="">
</div>
<div class="">
<div class="">
<div>
<blockquote type="cite" class="">
<div class="">On Jun 17, 2016, at 9:29 AM, Buterbaugh, Kevin L <<a href="mailto:Kevin.Buterbaugh@vanderbilt.edu" class="">Kevin.Buterbaugh@Vanderbilt.Edu</a>> wrote:</div>
<br class="Apple-interchange-newline">
<div class="">
<div style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">
Hi All,
<div class=""><br class="">
</div>
<div class="">I am aware that with the mmfileid command I can determine which files have blocks on a given NSD.  But is there a way to query a particular file to see which NSD(s) is has blocks on?  Thanks in advance…</div>
<div class=""><br class="">
</div>
<div class="">Kevin</div>
<div class=""><br class="">
<div class="">
<div class="">—</div>
<div class="">Kevin Buterbaugh - Senior System Administrator</div>
<div class="">Vanderbilt University - Advanced Computing Center for Research and Education</div>
<div class=""><a href="mailto:Kevin.Buterbaugh@vanderbilt.edu" class="">Kevin.Buterbaugh@vanderbilt.edu</a> - (615)875-9633</div>
<div class=""><br class="">
</div>
<br class="Apple-interchange-newline">
</div>
<br class="">
</div>
</div>
_______________________________________________<br class="">
gpfsug-discuss mailing list<br class="">
gpfsug-discuss at <a href="http://spectrumscale.org" class="">spectrumscale.org</a><br class="">
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" class="">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br class="">
</div>
</blockquote>
</div>
<br class="">
<div class="">
<div class="">—</div>
<div class="">Kevin Buterbaugh - Senior System Administrator</div>
<div class="">Vanderbilt University - Advanced Computing Center for Research and Education</div>
<div class=""><a href="mailto:Kevin.Buterbaugh@vanderbilt.edu" class="">Kevin.Buterbaugh@vanderbilt.edu</a> - (615)875-9633</div>
<div class=""><br class="">
</div>
<br class="Apple-interchange-newline">
</div>
<br class="">
</div>
</div>
</body>
</html>