<html><body><p><font size="2">Hi Billich,</font><br><br><font size="2" color="#0000FF">></font><font color="#0000FF">Or maybe illplaced files use larger inodes? Looks like for each used inode we increased by about 4k: 400M inodes, 1.6T increase in size</font><br><br>Basically a migration policy run with -I defer would just simply mark the files as illPlaced which would not cause metadata extension for such files(e.g., inode size is fixed after file system creation). Instead, I'm just wondering about your placement rules, which are existing rules or newly installed rules? Which could set EAs to newly created files and may cause increased metadata size. Also any new EAs are inserted for files?<br><br><br><font size="2">Regards, The Spectrum Scale (GPFS) team<br><br>------------------------------------------------------------------------------------------------------------------<br>If you feel that your question can benefit other users of  Spectrum Scale (GPFS), then please post it to the public IBM developerWroks Forum at <a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479">https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479</a>. <br><br>If your query concerns a potential software error in Spectrum Scale (GPFS) and you have an IBM software maintenance contract please contact  1-800-237-5511 in the United States or your local IBM Service Center in other countries. <br><br>The forum is informally monitored as time permits and should not be used for priority messages to the Spectrum Scale (GPFS) team.</font><br><br><img width="16" height="16" src="cid:1__=0ABB0C7CDFD7D73C8f9e8a93df938690918c0AB@" border="0" alt="Inactive hide details for "Billich  Heinrich Rainer (ID SD)" ---2021/06/08 05:19:32 PM---  Hello,"><font size="2" color="#424282">"Billich  Heinrich Rainer (ID SD)" ---2021/06/08 05:19:32 PM---  Hello,</font><br><br><font size="2" color="#5F5F5F">From:        </font><font size="2">"Billich  Heinrich Rainer (ID SD)" <heinrich.billich@id.ethz.ch></font><br><font size="2" color="#5F5F5F">To:        </font><font size="2">gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><br><font size="2" color="#5F5F5F">Date:        </font><font size="2">2021/06/08 05:19 PM</font><br><font size="2" color="#5F5F5F">Subject:        </font><font size="2">[EXTERNAL] [gpfsug-discuss] Metadata usage almost doubled after policy run        with migration rule</font><br><font size="2" color="#5F5F5F">Sent by:        </font><font size="2">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br><br><br> <br>Hello,<br> <br>A policy run with ‘-I defer’ and a placement rule did almost double the metadata usage of a filesystem. This filled the metadata disks to a critical level. I would like to understand if this is to be expected and ‘as designed’ or if I face some issue or bug. <br> I hope a subsequent run of ‘mmrstripefs -p’ will reduce the metadata usage again.<br>Thank you<br> <br> <br>I want to move all data to a new storage pool and did run a policy like<br> 
<ul>RULE 'migrate_to_Data'<br>  MIGRATE<br>    WEIGHT(0)</ul>  TO POOL 'Data'<br> <br>for each fileset with <br> <br>  mmapplypolicy -I defer<br> <br>Next I want to actually move the data with <br> <br>  mmrestripefs -p<br> <br>After the policy run metadata usage increased from 2.06TiB to 3.53TiB and filled the available metadata space by >90%. This is somewhat surprising. Will the following  run of ‘mmrestripefs -p’ reduce the usage again, when the files are not illplaced any more? The number of used Inodes did not change noticeably during the policy run. <br> <br>Or maybe illplaced files use larger inodes? Looks like for each used inode we increased by about 4k: 400M inodes, 1.6T increase in size<br> <br>Thank you,<br> <br>Heiner<br> <br>Some details<br> 
<ul># mmlsfs  fsxxxx -f -i -B -I -m -M -r -R -V<br>flag                value                    description<br>------------------- ------------------------ -----------------------------------<br>-f                 8192                     Minimum fragment (subblock) size in bytes (system pool)<br>                    32768                    Minimum fragment (subblock) size in bytes (other pools)<br>-i                 4096                     Inode size in bytes<br>-B                 1048576                  Block size (system pool)<br>                    4194304                  Block size (other pools)<br>-I                 32768                    Indirect block size in bytes<br>-m                 1                        Default number of metadata replicas<br>-M                 2                        Maximum number of metadata replicas<br>-r                 1                        Default number of data replicas<br>-R                 2                        Maximum number of data replicas<br>-V                 23.00 (5.0.5.0)          Current file system version</ul>                    19.01 (5.0.1.0)          Original file system version<br> 
<ul>Inode Information<br>-----------------<br>Total number of used inodes in all Inode spaces:          398502837<br>Total number of free inodes in all Inode spaces:           94184267<br>Total number of allocated inodes in all Inode spaces:     492687104</ul>Total of Maximum number of inodes in all Inode spaces:    916122880[attachment "smime.p7s" deleted by Hai Zhong HZ Zhou/China/IBM] <tt><font size="2">_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><tt><font size="2"><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></tt><tt><font size="2"><br></font></tt><br><br><BR>
</body></html>