<font size=3 face="Arial">Hopefully you are aware that GPFS 3.5 has been
out of service since April 2017 unless you are on extended service.  Might
be a good time to consider upgrading.</font><br><br><font size=3 face="sans-serif">Fred<br>__________________________________________________<br>Fred Stock | IBM Pittsburgh Lab | 720-430-8821<br>stockf@us.ibm.com</font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">"Ratliff, John"
<jdratlif@iu.edu></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">"gpfsug-discuss@spectrumscale.org"
<gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">12/06/2018 11:53 AM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">[gpfsug-discuss]
GPFS nodes crashing during policy scan</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><font size=2 face="Calibri">We’re trying to run a policy scan to get
a list of all the files in one of our filesets. There are approximately
600 million inodes in this space. We’re running GPFS 3.5. Every time we
run the policy scan, the node that is running it ends up crashing. It makes
it through a quarter of the inodes before crashing (i.e. kernel panic and
system reboot). Nothing in the GPFS logs shows anything. It just notes
that the node rebooted.</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">In the crash logs of all the systems we’ve
tried this on, we see the same line.</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri"><1>BUG: unable to handle kernel NULL
pointer dereference at 00000000000000d8</font><br><font size=2 face="Calibri"><1>IP: [<ffffffffa03fb7b2>]
_ZN6Direct5dreadEP15KernelOperationRK7FileUIDxiiiPvPFiS5_PKcixyS5_EPx+0xf2/0x590
[mmfs26]</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">Our policy scan rule is pretty simple:</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">RULE 'list-homedirs'</font><br><font size=2 face="Calibri">    LIST 'list-homedirs'</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">mmapplypolicy /gs/home -A 607 -g /gpfs/tmp
-f /gpfs/policy/output -N gpfs1,gpfs2,gpfs3,gpfs4 -P /tmp/homedirs.policy
-I defer -L 1</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">Has anyone experienced something like this
or have any suggestions on what to do to avoid it?</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">Thanks.</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">John Ratliff | Pervasive Technology Institute
| UITS | Research Storage – Indiana University | </font><a href=http://pti.iu.edu/><font size=2 face="Calibri">http://pti.iu.edu</font></a><br><font size=2 face="Calibri"> [attachment "smime.p7s"
deleted by Frederick Stock/Pittsburgh/IBM] </font><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><br><br><BR>