<font size=3 face="Arial">I am not sure I can provide you an optimal range
but I can list some factors to consider.  In general the guideline
is to keep directories to 500K files or so.  Keeping your metadata
on separate NSDs, and preferably fast NSDs, helps especially with directory
listings.  And running the latest version of Scale also helps.</font><br><br><font size=3 face="Arial">It is unclear to me why the number of files
in a directory would impact remount unless these are exported directories
and the remount is occurring on a user node that also attempts to scan
through the directory.</font><br><br><font size=3 face="sans-serif">Fred<br>__________________________________________________<br>Fred Stock | IBM Pittsburgh Lab | 720-430-8821<br>stockf@us.ibm.com</font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">"Michael Dutchak"
<Michael.Dutchak@ibm.com></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">gpfsug-discuss@spectrumscale.org</font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">09/11/2018 09:21 AM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">[gpfsug-discuss]
Optimal range on inode count for a single folder</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><tt><font size=2>I would like to find out what the limitation, or optimal
range on inode <br>count for a single folder is in GPFS.  We have several users that
have <br>caused issues with our current files system by adding up to a million <br>small files (1 ~ 40k) to a single directory.  This causes issues during
<br>system remount where restarting the system can take excessive amounts of
<br>time.</font></tt><p><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><p><p><BR>