<font size=2 face="sans-serif">Dean,</font><br><br><font size=2 face="sans-serif">This is one of the corner case which
is associated with sparse files at the home cluster. You could try with
latest versions of scale, AFM indepedent-writer mode have many performance/functional
improvements in newer releases. </font><br><br><font size=2 face="sans-serif">~Venkat (vpuvvada@in.ibm.com)</font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">"Flanders, Dean"
<dean.flanders@fmi.ch></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">gpfsug main discussion
list <gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">11/23/2020 11:44 PM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">[EXTERNAL] Re:
[gpfsug-discuss] AFM experiences?</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><font size=2 face="Calibri">Hello Rob,</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">We looked at AFM years ago for DR, but
after reading the bug reports, we avoided it, and also have had seen a
case where it had to be removed from one customer, so we have kept things
simple. Now looking again a few years later there are still issues, </font><a href="https://www.ibm.com/support/pages/ibm-spectrum-scale-active-file-management-afm-issues-which-may-result-undetected-data-corruption"><font size=2 color=blue face="Calibri"><u>IBM
Spectrum Scale Active File Management (AFM) issues which may result in
undetected data corruption</u></font></a><font size=2 face="Calibri">, and
that was just my first google hit. We have kept it simple, and use a parallel
rsync process with policy engine and can hit wire speed for copying of
millions of small files in order to have isolation between the sites at
GB/s. I am not saying it is bad, just that it needs an appropriate risk/reward
ratio to implement as it increases overall complexity.</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">Kind regards,</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">Dean</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri"><b>From:</b> gpfsug-discuss-bounces@spectrumscale.org
<gpfsug-discuss-bounces@spectrumscale.org> <b>On Behalf Of </b>Ryan
Novosielski<b><br>Sent:</b> Monday, November 23, 2020 4:31 PM<b><br>To:</b> gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><b><br>Subject:</b> Re: [gpfsug-discuss] AFM experiences?</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">We use it similar to how you describe it.
We now run 5.0.4.1 on the client side (I mean actual client nodes, not
the home or cache clusters). Before that, we had reliability problems (failure
to cache libraries of programs that were executing, etc.). The storage
clusters in our case are 5.0.3-2.3.  </font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">We also got bit by the quotas thing. You
have to set them the same on both sides, or you will have problems. It
seems a little silly that they are not kept in sync by GPFS, but that’s
how it is. If memory serves, the result looked like an AFM failure (queue
not being cleared), but it turned out to be that the files just could not
be written at the home cluster because the user was over quota there. I
also think I’ve seen load average increase due to this sort of thing,
but I may be mixing that up with another problem scenario. <br><br>We monitor via Nagios which I believe monitors using mmafmctl commands.
Really can’t think of a single time, apart from the other day, where the
queue backed up. The instance the other day only lasted a few minutes (if
you suddenly create many small files, like installing new software, it
may not catch up instantly). </font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">-- </font><br><font size=2 face="Calibri">#BlackLivesMatter<br>____<br>|| </font><a href="file:///UTGERS"><font size=2 color=blue face="Calibri"><u>\\UTGERS</u></font></a><font size=2 face="Calibri">,
      |---------------------------*O*---------------------------<br>||_// the State     |         Ryan Novosielski
- </font><a href="mailto:novosirj@rutgers.edu"><font size=2 color=blue face="Calibri"><u>novosirj@rutgers.edu</u></font></a><font size=2 face="Calibri"><br>|| \\ University | Sr. Technologist - 973/972.0922 (2x0922) ~*~ RBHS Campus<br>||  \\    of NJ     | Office of Advanced Research
Computing - MSB C630, Newark<br>    `'</font><br><font size=2 face="Calibri"><br></font><br><font size=2 face="Calibri">On Nov 23, 2020, at 10:19, Robert Horton
<</font><a href="mailto:robert.horton@icr.ac.uk"><font size=2 color=blue face="Calibri"><u>robert.horton@icr.ac.uk</u></font></a><font size=2 face="Calibri">>
wrote:</font><br><font size=2 face="Calibri">Hi all,<br><br>We're thinking about deploying AFM and would be interested in hearing<br>from anyone who has used it in anger - particularly independent writer.<br><br>Our scenario is we have a relatively large but slow (mainly because it<br>is stretched over two sites with a 10G link) cluster for long/medium-<br>term storage and a smaller but faster cluster for scratch storage in<br>our HPC system. What we're thinking of doing is using some/all of the<br>scratch capacity as an IW cache of some/all of the main cluster, the<br>idea to reduce the need for people to manually move data between the<br>two.<br><br>It seems to generally work as expected in a small test environment,<br>although we have a few concerns:<br><br>- Quota management on the home cluster - we need a way of ensuring<br>people don't write data to the cache which can't be accomodated on<br>home. Probably not insurmountable but needs a bit of thought...<br><br>- It seems inodes on the cache only get freed when they are deleted on<br>the cache cluster - not if they get deleted from the home cluster or<br>when the blocks are evicted from the cache. Does this become an issue<br>in time?<br><br>If anyone has done anything similar I'd be interested to hear how you<br>got on. It would be intresting to know if you created a cache fileset<br>for each home fileset or just one for the whole lot, as well as any<br>other pearls of wisdom you may have to offer.<br><br>Thanks!<br>Rob<br><br>-- <br>Robert Horton | Research Data Storage Lead<br>The Institute of Cancer Research | 237 Fulham Road | London | SW3 6JB<br>T +44 (0)20 7153 5350 | E </font><a href="mailto:robert.horton@icr.ac.uk"><font size=2 color=blue face="Calibri"><u>robert.horton@icr.ac.uk</u></font></a><font size=2 face="Calibri">| W </font><a href="http://www.icr.ac.uk"><font size=2 color=blue face="Calibri"><u>www.icr.ac.uk</u></font></a><font size=2 face="Calibri">|<br>Twitter @ICR_London<br>Facebook: </font><a href="http://www.facebook.com/theinstituteofcancerresearch"><font size=2 color=blue face="Calibri"><u>www.facebook.com/theinstituteofcancerresearch</u></font></a><font size=2 face="Calibri"><br><br>The Institute of Cancer Research: Royal Cancer Hospital, a charitable Company
Limited by Guarantee, Registered in England under Company No. 534147 with
its Registered Office at 123 Old Brompton Road, London SW7 3RP.<br><br>This e-mail message is confidential and for use by the addressee only.
 If the message is received by anyone other than the addressee, please
return the message to the sender by replying to it and then delete the
message from your computer and network.<br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font><font size=2 color=blue face="Calibri"><u><br></u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size=2 color=blue face="Calibri"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><br><br><BR>