<span style=" font-size:12pt;font-family:Arial">We do appreciate the feedback.
 Since Spectrum Scale is a cluster based solution we do not consider
the failure of a single node significant since the cluster will adjust
to the loss of the node and access to the file data is not lost.  It
seems in this specific instance this problem was having a more significant
impact in your environment.  Presumably you have installed the available
fix and are no longer encountering the problem.</span><br><br><span style=" font-size:10pt;font-family:sans-serif">Regards, The Spectrum
Scale (GPFS) team<br><br>------------------------------------------------------------------------------------------------------------------<br>If you feel that your question can benefit other users of  Spectrum
Scale (GPFS), then please post it to the public IBM developerWroks Forum
at </span><a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479"><span style=" font-size:10pt;font-family:sans-serif">https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479</span></a><span style=" font-size:10pt;font-family:sans-serif">.
<br><br>If your query concerns a potential software error in Spectrum Scale (GPFS)
and you have an IBM software maintenance contract please contact  1-800-237-5511
in the United States or your local IBM Service Center in other countries.
<br><br>The forum is informally monitored as time permits and should not be used
for priority messages to the Spectrum Scale (GPFS) team.</span><br><br><br><br><span style=" font-size:9pt;color:#5f5f5f;font-family:sans-serif">From:
       </span><span style=" font-size:9pt;font-family:sans-serif">Ryan
Novosielski <novosirj@rutgers.edu></span><br><span style=" font-size:9pt;color:#5f5f5f;font-family:sans-serif">To:
       </span><span style=" font-size:9pt;font-family:sans-serif">gpfsug
main discussion list <gpfsug-discuss@spectrumscale.org></span><br><span style=" font-size:9pt;color:#5f5f5f;font-family:sans-serif">Date:
       </span><span style=" font-size:9pt;font-family:sans-serif">08/21/2019
01:34 PM</span><br><span style=" font-size:9pt;color:#5f5f5f;font-family:sans-serif">Subject:
       </span><span style=" font-size:9pt;font-family:sans-serif">[EXTERNAL]
Re: [gpfsug-discuss] mmfsd segfault/signal 6 on dirop.C:4548    
   in        GPFS  
     5.0.2.x</span><br><span style=" font-size:9pt;color:#5f5f5f;font-family:sans-serif">Sent
by:        </span><span style=" font-size:9pt;font-family:sans-serif">gpfsug-discuss-bounces@spectrumscale.org</span><br><hr noshade><br><br><br><tt><span style=" font-size:10pt">If there is any means for feedback,
I really think that anything that causes a crash of mmfsd is absolutely
cause to send a notice. Regardless of data corruption, it makes the software
unusable in production under certain circumstances. There was a large customer
impact at our site. We have a reproducible case if it is useful. One customer
workload crashed every time, though it took almost a full day to get to
that point so you can imagine the time wasted.<br><br>> On Aug 21, 2019, at 1:20 PM, IBM Spectrum Scale <scale@us.ibm.com>
wrote:<br>> <br>> To my knowledge there has been no notification sent regarding this
problem.  Generally we only notify customers about problems that impact
file system data corruption or data loss.  This problem does cause
the GPFS instance to abort and restart (assert) but it does not impact
file system data.  It seems in your case you may have been encountering
the problem frequently.<br>> <br>> Regards, The Spectrum Scale (GPFS) team<br>> <br>> ------------------------------------------------------------------------------------------------------------------<br>> If you feel that your question can benefit other users of  Spectrum
Scale (GPFS), then please post it to the public IBM developerWroks Forum
at </span></tt><a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479"><tt><span style=" font-size:10pt">https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479</span></tt></a><tt><span style=" font-size:10pt">.
<br>> <br>> If your query concerns a potential software error in Spectrum Scale
(GPFS) and you have an IBM software maintenance contract please contact
 1-800-237-5511 in the United States or your local IBM Service Center
in other countries. <br>> <br>> The forum is informally monitored as time permits and should not be
used for priority messages to the Spectrum Scale (GPFS) team.<br>> <br>> <br>> <br>> From:        Ryan Novosielski <novosirj@rutgers.edu><br>> To:        gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>> Date:        08/21/2019 01:14 PM<br>> Subject:        [EXTERNAL] Re: [gpfsug-discuss]
mmfsd segfault/signal 6 on dirop.C:4548 in        GPFS
       5.0.2.x<br>> Sent by:        gpfsug-discuss-bounces@spectrumscale.org<br>> <br>> <br>> <br>> Has there been any official notification of this one? I can’t see
anything about it anyplace other than in my support ticket.<br>> <br>> --<br>> ____<br>> || \\UTGERS,                
   |---------------------------*O*---------------------------<br>> ||_// the State                
 |         Ryan Novosielski - novosirj@rutgers.edu<br>> || \\ University | Sr. Technologist - 973/972.0922 (2x0922) ~*~ RBHS
Campus<br>> ||  \\    of NJ          
       | Office of Advanced Research Computing - MSB
C630, Newark<br>>     `'<br>> <br>> > On Aug 21, 2019, at 1:10 PM, IBM Spectrum Scale <scale@us.ibm.com>
wrote:<br>> > <br>> > As was noted this problem is fixed in the Spectrum Scale 5.0.3
release stream.  Regarding the version number format of 5.0.2.0/1
I assume that it is meant to convey version 5.0.2 efix 1.<br>> >    <br>> > Regards, The Spectrum Scale (GPFS) team<br>> > <br>> > ------------------------------------------------------------------------------------------------------------------<br>> > If you feel that your question can benefit other users of  Spectrum
Scale (GPFS), then please post it to the public IBM developerWroks Forum
at </span></tt><a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479"><tt><span style=" font-size:10pt">https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479</span></tt></a><tt><span style=" font-size:10pt">.
<br>> > <br>> > If your query concerns a potential software error in Spectrum
Scale (GPFS) and you have an IBM software maintenance contract please contact
 1-800-237-5511 in the United States or your local IBM Service Center
in other countries. <br>> > <br>> > The forum is informally monitored as time permits and should
not be used for priority messages to the Spectrum Scale (GPFS) team.<br>> > <br>> > <br>> > <br>> > From:        Ryan Novosielski <novosirj@rutgers.edu><br>> > To:        gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>> > Date:        08/21/2019 12:04 PM<br>> > Subject:        [EXTERNAL] [gpfsug-discuss]
mmfsd segfault/signal 6 on dirop.C:4548 in GPFS        5.0.2.x<br>> > Sent by:        gpfsug-discuss-bounces@spectrumscale.org<br>> > <br>> > <br>> > <br>> > I posted this on Slack, but it’s serious enough that I want
to make sure everyone sees it. Does anyone, from IBM or otherwise, have
any more information about this/whether it was even announced anyplace?
Thanks!<br>> > <br>> > A little late, but we ran into a relatively serious problem at
our site with 5.0.2.3 at our site. The symptom is a mmfsd crash/segfault
related to fs/dirop.C:4548. We ran into this sporadically, but it was repeatable
on the problem workload. From IBM Support:<br>> > <br>> > 2. This is a known defect.<br>> > The problem has been fixed through<br>> > D.1073563: CTM_A_XW_FOR_DATA_IN_INODE related assert in DirLTE::lock<br>> > A companion fix is<br>> > D.1073753: Assert that the lock mode in DirLTE::lock is strong
enough<br>> > <br>> > <br>> > The rep further said "It's not an APAR since it's found
in internal testing. It's an internal function at a place it should not
assert but a part of the condition as the code path is specific to the
DIR_UPDATE_LOCKMODE optimization code... The assert was meant for certain
file creation code path, but the condition wasn't set strictly for that
code path that some other code path could also run into the assert. So
we cannot predict on which node it would happen.” <br>> > <br>> > The fix was setting disableAssert="dirop.C:4548, which can
be done live. Anyone seen anything else about this anyplace? The bug is
fixed in 5.0.3.x and was introduced in 5.0.2.0/1 (not sure what this version
number means; I’ve seen them listed X.X.X.X.X.X, X.X.X-X.X, and others).<br>> > <br>> > --<br>> > ____<br>> > || \\UTGERS,              
     |---------------------------*O*---------------------------<br>> > ||_// the State              
   |         Ryan Novosielski - novosirj@rutgers.edu<br>> > || \\ University | Sr. Technologist - 973/972.0922 (2x0922) ~*~
RBHS Campus<br>> > ||  \\    of NJ          
       | Office of Advanced Research Computing - MSB
C630, Newark<br>> >     `'<br>> > <br>> > _______________________________________________<br>> > gpfsug-discuss mailing list<br>> > gpfsug-discuss at spectrumscale.org<br>> > </span></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><span style=" font-size:10pt">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</span></tt></a><tt><span style=" font-size:10pt"><br>> > <br>> > <br>> > <br>> > <br>> > _______________________________________________<br>> > gpfsug-discuss mailing list<br>> > gpfsug-discuss at spectrumscale.org<br>> > </span></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><span style=" font-size:10pt">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</span></tt></a><tt><span style=" font-size:10pt"><br>> <br>> _______________________________________________<br>> gpfsug-discuss mailing list<br>> gpfsug-discuss at spectrumscale.org<br>> </span></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><span style=" font-size:10pt">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</span></tt></a><tt><span style=" font-size:10pt"><br>> <br>> <br>> <br>> <br>> _______________________________________________<br>> gpfsug-discuss mailing list<br>> gpfsug-discuss at spectrumscale.org<br>> </span></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><span style=" font-size:10pt">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</span></tt></a><tt><span style=" font-size:10pt"><br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></span></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><span style=" font-size:10pt">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</span></tt></a><tt><span style=" font-size:10pt"><br><br></span></tt><br><br><BR>