<html><body><p><font size="2">Hi,</font><br><br><font size="2">The GUI behavior is correct.</font><br><font size="2">You can reduce the maximum number of inodes of an inode space, but not below the allocated inodes level.<br></font><br><font size="2">See below:</font><br><br><font size="2"># Setting inode levels to 300000 max/ 200000 preallocated</font><br><font size="2" face="Courier New">[root@cache-11 ~]# mmchfileset gpfs0 root --inode-limit 300000:200000</font><br><font size="2" face="Courier New">Set maxInodes for inode space 0 to 300000</font><br><font size="2" face="Courier New">Fileset root changed.</font><br><br><font size="2" face="Courier New"># The actually allocated values may be sloightly different:</font><br><font size="2" face="Courier New">[root@cache-11 ~]# mmlsfileset gpfs0 -L</font><br><font size="2" face="Courier New">Filesets in file system 'gpfs0':</font><br><font size="2" face="Courier New">Name                            Id      RootInode  ParentId Created                      InodeSpace      MaxInodes    AllocInodes Comment</font><br><font size="2" face="Courier New">root                             0              3        -- Mon Feb 26 11:34:06 2018        0               300000         200032 root fileset</font><br><br><font size="2" face="Courier New"># Lowering the allocated values is not allowed </font><br><font size="2" face="Courier New">[root@cache-11 ~]# mmchfileset gpfs0 root --inode-limit 300000:150000</font><br><font size="2" face="Courier New">The number of inodes to preallocate cannot be lower than the 200032 inodes already allocated.</font><br><font size="2" face="Courier New">Input parameter value for inode limit out of range.</font><br><font size="2" face="Courier New">mmchfileset: Command failed. Examine previous error messages to determine cause.</font><br><br><font size="2" face="Courier New"># However, you can change the max inodes up to the allocated value</font><br><font size="2" face="Courier New">[root@cache-11 ~]# mmchfileset gpfs0 root --inode-limit 200032:200032</font><br><font size="2" face="Courier New">Set maxInodes for inode space 0 to 200032</font><br><font size="2" face="Courier New">Fileset root changed.</font><br><br><font size="2" face="Courier New">[root@cache-11 ~]# mmlsfileset gpfs0 -L</font><br><font size="2" face="Courier New">Filesets in file system 'gpfs0':</font><br><font size="2" face="Courier New">Name                            Id      RootInode  ParentId Created                      InodeSpace      MaxInodes    AllocInodes Comment</font><br><font size="2" face="Courier New">root                             0              3        -- Mon Feb 26 11:34:06 2018        0               200032         200032 root fileset</font><br><br><br><font size="2" face="Arial">Mit freundlichen Grüßen / Kind regards</font><br><br><b><font face="Arial">Dr. Markus Rohwedder</font></b><br><br><font size="1" face="Arial">Spectrum Scale GUI Development</font><table border="0" cellspacing="0" cellpadding="0"><tr valign="top"><td class="small_font" width="600" colspan="4" valign="middle"><hr width="100%" size="2" align="left" style="color:#0055AA; "></td></tr>
<tr valign="top"><td class="small_font" width="600" colspan="4" valign="middle"><img width="1" height="1" src="cid:1__=8FBB081EDFD39F818f9e8a93df938690918c8FB@" border="0" alt=""></td></tr>
<tr valign="top"><td class="inner" width="39" valign="middle"><font size="1" color="#0055AA" face="Arial">Phone:</font></td><td class="inner" width="157" valign="middle"><font size="1" color="#0055AA" face="Arial">+49 7034 6430190</font></td><td class="inner" width="246" valign="middle"><font size="1" color="#0055AA" face="Arial"> IBM Deutschland Research & Development</font></td><td width="158" rowspan="4" valign="middle"><div align="right"><img src="cid:2__=8FBB081EDFD39F818f9e8a93df938690918c8FB@" width="158" height="40" align="bottom"></div></td></tr>
<tr valign="top"><td class="inner" width="39" valign="middle"><font size="1" color="#0055AA" face="Arial">E-Mail:</font></td><td class="inner" width="157" valign="middle"><font size="1" color="#0055AA" face="Arial">rohwedder@de.ibm.com</font></td><td class="inner" width="246" valign="middle"><font size="1" color="#0055AA" face="Arial"> Am Weiher 24</font></td></tr>
<tr valign="top"><td class="inner" width="39" valign="middle"><img width="1" height="1" src="cid:1__=8FBB081EDFD39F818f9e8a93df938690918c8FB@" border="0" alt=""></td><td class="inner" width="157" valign="middle"><img width="1" height="1" src="cid:1__=8FBB081EDFD39F818f9e8a93df938690918c8FB@" border="0" alt=""></td><td class="inner" width="246" valign="middle"><font size="1" color="#0055AA" face="Arial"> 65451 Kelsterbach</font></td></tr>
<tr valign="top"><td class="inner" width="39" valign="middle"><img width="1" height="1" src="cid:1__=8FBB081EDFD39F818f9e8a93df938690918c8FB@" border="0" alt=""></td><td class="inner" width="157" valign="middle"><img width="1" height="1" src="cid:1__=8FBB081EDFD39F818f9e8a93df938690918c8FB@" border="0" alt=""></td><td class="inner" width="246" valign="middle"><font size="1" color="#0055AA" face="Arial"> Germany</font></td></tr>
<tr valign="top"><td class="small_font" width="600" colspan="4" valign="middle"><hr width="100%" size="2" align="left" style="color:#0055AA; "></td></tr>
<tr valign="top"><td class="small_font" width="600" colspan="4" valign="middle"><img width="1" height="1" src="cid:1__=8FBB081EDFD39F818f9e8a93df938690918c8FB@" border="0" alt=""></td></tr></table><br><img width="16" height="16" src="cid:3__=8FBB081EDFD39F818f9e8a93df938690918c8FB@" border="0" alt="Inactive hide details for KG ---14.05.2018 13:37:49---On Mon, May 14, 2018 at 4:48 PM, Markus Rohwedder <rohwedder@de.ibm.com> "><font size="2" color="#424282">KG ---14.05.2018 13:37:49---On Mon, May 14, 2018 at 4:48 PM, Markus Rohwedder <rohwedder@de.ibm.com> wrote:</font><br><br><font size="2" color="#5F5F5F">From:        </font><font size="2">KG <spectrumscale@kiranghag.com></font><br><font size="2" color="#5F5F5F">To:        </font><font size="2">gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><br><font size="2" color="#5F5F5F">Date:        </font><font size="2">14.05.2018 13:37</font><br><font size="2" color="#5F5F5F">Subject:        </font><font size="2">Re: [gpfsug-discuss] pool-metadata_high_error</font><br><font size="2" color="#5F5F5F">Sent by:        </font><font size="2">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br><br><br><br><br><font face="Verdana"><br></font><br><br><br>On Mon, May 14, 2018 at 4:48 PM, Markus Rohwedder <<a href="mailto:rohwedder@de.ibm.com" target="_blank"><u><font color="#0000FF">rohwedder@de.ibm.com</font></u></a>> wrote:
<ul><ul><font size="2">Once inodes are allocated I am not aware of a method to de-allocate them. This is what the Knowledge Center says:</font><br><i><br>"Inodes are allocated when they are used. When a file is deleted, the inode is reused, but inodes are never deallocated. When setting the maximum number of inodes in a file system, there is the option to preallocate inodes. However, in most cases there is no need to preallocate inodes because, by default, inodes are allocated in sets as needed. If you do decide to preallocate inodes, be careful not to preallocate more inodes than will be used; otherwise, the allocated inodes will unnecessarily consume metadata space that cannot be reclaimed. "</i><br><br></ul></ul><img src="cid:4__=8FBB081EDFD39F818f9e8a93df938690918c8FB@" width="388" height="195"><br><br><font face="Verdana">I believe the Maximum number of inodes cannot be reduced but allocated number of inodes can be. Not sure why the GUI isnt allowing to reduce it.<br>​</font><ul><ul><font size="2" color="#5F5F5F"><br>From: </font><font size="2">KG <</font><a href="mailto:spectrumscale@kiranghag.com" target="_blank"><u><font size="2" color="#0000FF">spectrumscale@kiranghag.com</font></u></a><font size="2">></font><font size="2" color="#5F5F5F"><br>To: </font><font size="2">gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank"><u><font size="2" color="#0000FF">gpfsug-discuss@spectrumscale.org</font></u></a><font size="2">></font><font size="2" color="#5F5F5F"><br>Date: </font><font size="2">14.05.2018 12:57</font><font size="2" color="#5F5F5F"><br>Subject: </font><font size="2">[gpfsug-discuss] pool-metadata_high_error</font><font size="2" color="#5F5F5F"><br>Sent by: </font><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank"><u><font size="2" color="#0000FF">gpfsug-discuss-bounces@spectrumscale.org</font></u></a><br><hr width="100%" size="2" align="left" noshade><br><br><br><br>Hi Folks<br><br>IHAC who is reporting pool-metadata_high_error on GUI.<br><br>The inode utilisation on filesystem is as below<br>Used inodes - 92922895<br>free inodes - 1684812529<br>allocated - 1777735424<br>max inodes - 1911363520<br><br>the inode utilization on one fileset (it is only one being used) is below<br>Used inodes - 93252664<br>allocated - 1776624128<br>max inodes 1876624064<br><br>is this because the difference in allocated and max inodes is very less?<br><br>Customer tried reducing allocated inodes on fileset (between max and used inode) and GUI complains that it is out of range.<br><tt><font size="2">_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at </font></tt><a href="http://spectrumscale.org" target="_blank"><tt><u><font size="2" color="#0000FF">spectrumscale.org</font></u></tt></a><tt><u><font size="2" color="#0000FF"><br></font></u></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank"><tt><u><font size="2" color="#0000FF">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></u></tt></a><br><br><br>
<p><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at <a href="http://spectrumscale.org" target="_blank"><u><font color="#0000FF">spectrumscale.org</font></u></a><u><font color="#0000FF"><br></font></u><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank"><u><font color="#0000FF">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></u></a><br></ul></ul><br><tt><font size="2">_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><tt><font size="2"><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></tt><tt><font size="2"><br></font></tt><br><br><BR>
</body></html>