<font size=2 face="sans-serif">IMO, it is simplest to have both the old
and new file systems both mounted on the same node(s).  Then you can
use AFM and/or any other utilities to migrate/copy your files from the
old file system to the new.  </font><br><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">"Shankar Balasubramanian"
<shankbal@in.ibm.com></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">gpfsug main discussion
list <gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">10/13/2016 06:46 AM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">Re: [gpfsug-discuss]
Hardware refresh -</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><font size=3>Please note - though one of the supported use case of
AFM is such migration scenarios, infact AFM does particularly well in faithfully
migrating the data when the source and destination cluster are GPFS, the
scalability of this solution for multi million/multi terabyte file systems
has its own set of challenges. These have to carefully understood and checked
if AFM will fit the bill. <br><br><br>Best Regards,<br>Shankar Balasubramanian<br>STSM, AFM & Async DR Development<br>IBM Systems<br>Bangalore - Embassy Golf Links <br>India<br><br><br><br></font><img src=cid:_1_124D5E3C124D59C00054E3DA8525804B alt="Inactive hide details for "Marc A Kaplan" ---10/12/2016 11:25:20 PM---Yes, you can AFM within a single cluster, in fact with ju" style="border:0px solid;"><font size=3 color=#424282>"Marc
A Kaplan" ---10/12/2016 11:25:20 PM---Yes, you can AFM within a single
cluster, in fact with just a single node. I just set this up on m</font><font size=3><br></font><font size=2 color=#5f5f5f><br>From: </font><font size=2>"Marc A Kaplan" <makaplan@us.ibm.com></font><font size=2 color=#5f5f5f><br>To: </font><font size=2>gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><font size=2 color=#5f5f5f><br>Date: </font><font size=2>10/12/2016 11:25 PM</font><font size=2 color=#5f5f5f><br>Subject: </font><font size=2>Re: [gpfsug-discuss] Hardware refresh -</font><font size=2 color=#5f5f5f><br>Sent by: </font><font size=2>gpfsug-discuss-bounces@spectrumscale.org</font><font size=3><br></font><hr noshade><font size=3><br><br></font><tt><font size=3><br>Yes, you can AFM within a single cluster, in fact with just a single node.
 I just set this up on my toy system:<br><br>[root@bog-wifi cmvc]# mmlsfileset yy afmlu --afm<br>Filesets in file system 'yy':<br>Name                    
Status    Path              
                     
  afmTarget<br>afmlu                    Linked
   /yy/afmlu              
                   gpfs:///xx<br><br>[root@bog-wifi cmvc]# mount<br> ...<br>yy on /yy type gpfs (rw,relatime,seclabel)<br>xx on /xx type gpfs (rw,relatime,seclabel)<br><br>[root@bog-wifi cmvc]# mmafmctl yy getstate<br>Fileset Name    Fileset Target          
                     Cache
State          Gateway Node    Queue
Length   Queue numExec<br>------------    --------------          
                     -------------
       ------------    ------------  
-------------<br>afmlu           gpfs:///xx      
                     
       Active            
  bog-wifi        0        
     7<br><br>So, you may add nodes, add disks to an existing cluster, upgrade your software,
define a new FS,<br>migrate data from an old FS to a new FS<br>then delete nodes and disks that are no longer needed...</font></tt><font size=4><br><br></font><font size=2 color=#5f5f5f><br><br>From: </font><font size=2>Stephen Ulmer <ulmer@ulmer.org></font><font size=2 color=#5f5f5f><br>To: </font><font size=2>gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><font size=2 color=#5f5f5f><br>Date: </font><font size=2>10/11/2016 09:30 PM</font><font size=2 color=#5f5f5f><br>Subject: </font><font size=2>Re: [gpfsug-discuss] Hardware refresh</font><font size=2 color=#5f5f5f><br>Sent by: </font><font size=2>gpfsug-discuss-bounces@spectrumscale.org</font><font size=3><br></font><hr noshade><font size=4><br><br><br>I think that the OP was asking why not expand the existing cluster with
the new hardware, and just make a new FS?<br><br>I’ve not tried to make a cluster talk AFM to itself yet. If that’s impossible,
then there’s one good reason to make a new cluster (to use AFM for migration).<br><br>Liberty,<br><br>-- <br>Stephen<br><br><br><br>On Oct 11, 2016, at 8:40 PM, </font><a href=mailto:Mark.Bush@siriuscom.com><font size=4 color=blue><u>Mark.Bush@siriuscom.com</u></font></a><font size=4>wrote:</font><font size=3 face="Calibri"><br><br>Only compelling reason for new cluster would be old hardware is EOL or
no longer want to pay maintenance on it.</font><font size=4 face="Calibri"><b><br><br>From: </b><</font><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org"><font size=4 color=#800080 face="Calibri"><u>gpfsug-discuss-bounces@spectrumscale.org</u></font></a><font size=4 face="Calibri">>
on behalf of Marc A Kaplan <</font><a href=mailto:makaplan@us.ibm.com><font size=4 color=#800080 face="Calibri"><u>makaplan@us.ibm.com</u></font></a><font size=4 face="Calibri">><b><br>Reply-To: </b>gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@spectrumscale.org"><font size=4 color=#800080 face="Calibri"><u>gpfsug-discuss@spectrumscale.org</u></font></a><font size=4 face="Calibri">><b><br>Date: </b>Tuesday, October 11, 2016 at 2:58 PM<b><br>To: </b>gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@spectrumscale.org"><font size=4 color=#800080 face="Calibri"><u>gpfsug-discuss@spectrumscale.org</u></font></a><font size=4 face="Calibri">><b><br>Subject: </b>Re: [gpfsug-discuss] Hardware refresh</font><font size=3><br><br>New FS? Yes there are some good reasons. <br>New cluster? I did not see a compelling argument either way.</font><font size=4 face="Times New Roman"><br></font><font size=2 color=#5f5f5f><br><br><br>From: </font><font size=2>"</font><a href=mailto:Mark.Bush@siriuscom.com><font size=2 color=#800080><u>Mark.Bush@siriuscom.com</u></font></a><font size=2>"
<</font><a href=mailto:Mark.Bush@siriuscom.com><font size=2 color=#800080><u>Mark.Bush@siriuscom.com</u></font></a><font size=2>></font><font size=2 color=#5f5f5f><br>To: </font><font size=2>gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@spectrumscale.org"><font size=2 color=#800080><u>gpfsug-discuss@spectrumscale.org</u></font></a><font size=2>></font><font size=2 color=#5f5f5f><br>Date: </font><font size=2>10/11/2016 03:34 PM</font><font size=2 color=#5f5f5f><br>Subject: </font><font size=2>Re: [gpfsug-discuss] Hardware refresh</font><font size=2 color=#5f5f5f><br>Sent by: </font><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org"><font size=2 color=#800080><u>gpfsug-discuss-bounces@spectrumscale.org</u></font></a><div align=center><hr noshade></div><p><font size=4 face="Times New Roman"><br></font><font size=3 face="Calibri"><br><br><br>Ok. I think I am hearing that a new cluster with a new FS and copying data
from old to new cluster is the best way forward. Thanks everyone for your
input. </font><font size=4 face="Calibri"><b><br><br>From: </b><</font><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org"><font size=4 color=#800080 face="Calibri"><u>gpfsug-discuss-bounces@spectrumscale.org</u></font></a><font size=4 face="Calibri">>
on behalf of Yuri L Volobuev <</font><a href=mailto:volobuev@us.ibm.com><font size=4 color=#800080 face="Calibri"><u>volobuev@us.ibm.com</u></font></a><font size=4 face="Calibri">><b><br>Reply-To: </b>gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@spectrumscale.org"><font size=4 color=#800080 face="Calibri"><u>gpfsug-discuss@spectrumscale.org</u></font></a><font size=4 face="Calibri">><b><br>Date: </b>Tuesday, October 11, 2016 at 12:22 PM<b><br>To: </b>gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@spectrumscale.org"><font size=4 color=#800080 face="Calibri"><u>gpfsug-discuss@spectrumscale.org</u></font></a><font size=4 face="Calibri">><b><br>Subject: </b>Re: [gpfsug-discuss] Hardware refresh</font><p><font size=4 face="Times New Roman">This depends on the committed cluster
version level (minReleaseLevel) and file system format. Since NFSv2 is
an on-disk format change, older code wouldn't be able to understand what
it is, and thus if there's a possibility of a downlevel node looking at
the NSD, the NFSv1 format is going to be used. The code does NSDv1<->NSDv2
conversions under the covers as needed when adding an empty NSD to a file
system.<br><br>I'd strongly recommend getting a fresh start by formatting a new file system.
Many things have changed over the course of the last few years. In particular,
having a 4K-aligned file system can be a pretty big deal, depending on
what hardware one is going to deploy in the future, and this is something
that can't be bolted onto an existing file system. Having 4K inodes is
very handy for many reasons. New directory format and NSD format changes
are attractive, too. And disks generally tend to get larger with time,
and at some point you may want to add a disk to an existing storage pool
that's larger than the existing allocation map format allows. Obviously,
it's more hassle to migrate data to a new file system, as opposed to extending
an existing one. In a perfect world, GPFS would offer a conversion tool
that seamlessly and robustly converts old file systems, making them as
good as new, but in the real world such a tool doesn't exist. Getting a
clean slate by formatting a new file system every few years is a good long-term
investment of time, although it comes front-loaded with extra work.<br><br>yuri<br><br><image001.gif></font><font size=4 color=#424282 face="Times New Roman">Aaron
Knister ---10/10/2016 04:45:31 PM---Can one format NSDv2 NSDs and put them
in a filesystem with NSDv1 NSD's? -Aaron</font><font size=3 color=#5f5f5f face="Times New Roman"><br><br>From: </font><font size=3 face="Times New Roman">Aaron Knister <</font><a href=mailto:aaron.s.knister@nasa.gov><font size=3 color=#800080 face="Times New Roman"><u>aaron.s.knister@nasa.gov</u></font></a><font size=3 face="Times New Roman">></font><font size=3 color=#5f5f5f face="Times New Roman"><br>To: </font><font size=3 face="Times New Roman"><</font><a href="mailto:gpfsug-discuss@spectrumscale.org"><font size=3 color=#800080 face="Times New Roman"><u>gpfsug-discuss@spectrumscale.org</u></font></a><font size=3 face="Times New Roman">>,
</font><font size=3 color=#5f5f5f face="Times New Roman"><br>Date: </font><font size=3 face="Times New Roman">10/10/2016 04:45 PM</font><font size=3 color=#5f5f5f face="Times New Roman"><br>Subject: </font><font size=3 face="Times New Roman">Re: [gpfsug-discuss]
Hardware refresh</font><font size=3 color=#5f5f5f face="Times New Roman"><br>Sent by: </font><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org"><font size=3 color=#800080 face="Times New Roman"><u>gpfsug-discuss-bounces@spectrumscale.org</u></font></a><div align=center><hr noshade></div><p><font size=4 face="Times New Roman"><br><br></font><font size=3 face="Courier New"><br><br><br><br>Can one format NSDv2 NSDs and put them in a filesystem with NSDv1 NSD's?<br><br>-Aaron<br><br>On 10/10/16 7:40 PM, Luis Bolinches wrote:<br>> Hi<br>><br>> Creating a new FS sounds like a best way to go. NSDv2 being a very
good<br>> reason to do so.<br>><br>> AFM for migrations is quite good, latest versions allows to use NSD<br>> protocol for mounts as well. Olaf did a great job explaining this<br>> scenario on the redbook chapter 6<br>><br>> </font><a href=http://www.redbooks.ibm.com/abstracts/sg248254.html?Open><font size=3 color=#800080 face="Courier New"><u>http://www.redbooks.ibm.com/abstracts/sg248254.html?Open</u></font></a><font size=3 face="Courier New"><br>><br>> --<br>> Cheers<br>><br>> On 10 Oct 2016, at 23.05, Buterbaugh, Kevin L<br>> <</font><a href=mailto:Kevin.Buterbaugh@vanderbilt.edu><font size=3 color=#800080 face="Courier New"><u>Kevin.Buterbaugh@Vanderbilt.Edu</u></font></a><font size=3 face="Courier New"><br>> <</font><a href=mailto:Kevin.Buterbaugh@Vanderbilt.Edu><font size=3 color=#800080 face="Courier New"><u>mailto:Kevin.Buterbaugh@Vanderbilt.Edu</u></font></a><font size=3 face="Courier New">>>
wrote:<br>><br>>> Hi Mark,<br>>><br>>> The last time we did something like this was 2010 (we’re doing
rolling<br>>> refreshes now), so there are probably lots of better ways to do
this<br>>> than what we did, but we:<br>>><br>>> 1) set up the new hardware<br>>> 2) created new filesystems (so that we could make adjustments
we<br>>> wanted to make that can only be made at FS creation time)<br>>> 3) used rsync to make a 1st pass copy of everything<br>>> 4) coordinated a time with users / groups to do a 2nd rsync when
they<br>>> weren’t active<br>>> 5) used symbolic links during the transition (i.e. rm -rvf<br>>> /gpfs0/home/joeuser; ln -s /gpfs2/home/joeuser /gpfs0/home/joeuser)<br>>> 6) once everybody was migrated, updated the symlinks (i.e. /home<br>>> became a symlink to /gpfs2/home)<br>>><br>>> HTHAL…<br>>><br>>> Kevin<br>>><br>>>> On Oct 10, 2016, at 2:56 PM, </font><a href=mailto:Mark.Bush@siriuscom.com><font size=3 color=#800080 face="Courier New"><u>Mark.Bush@siriuscom.com</u></font></a><font size=3 face="Courier New"><br>>>> <</font><a href=mailto:Mark.Bush@siriuscom.com><font size=3 color=#800080 face="Courier New"><u>mailto:Mark.Bush@siriuscom.com</u></font></a><font size=3 face="Courier New">>
wrote:<br>>>><br>>>> Have a very old cluster built on IBM X3650’s and DS3500.
Need to<br>>>> refresh hardware. Any lessons learned in this process? Is
it<br>>>> easiest to just build new cluster and then use AFM? Add to
existing<br>>>> cluster then decommission nodes? What is the recommended process
for<br>>>> this?<br>>>><br>>>><br>>>> Mark<br>>>><br>>>> This message (including any attachments) is intended only
for the use<br>>>> of the individual or entity to which it is addressed and may
contain<br>>>> information that is non-public, proprietary, privileged,<br>>>> confidential, and exempt from disclosure under applicable
law. If you<br>>>> are not the intended recipient, you are hereby notified that
any use,<br>>>> dissemination, distribution, or copying of this communication
is<br>>>> strictly prohibited. This message may be viewed by parties
at Sirius<br>>>> Computer Solutions other than those named in the message header.
This<br>>>> message does not contain an official representation of Sirius<br>>>> Computer Solutions. If you have received this communication
in error,<br>>>> notify Sirius Computer Solutions immediately and (i) destroy
this<br>>>> message if a facsimile or (ii) delete this message immediately
if<br>>>> this is an electronic communication. Thank you.<br>>>><br>>>> Sirius Computer Solutions <</font><a href=http://www.siriuscom.com/><font size=3 color=#800080 face="Courier New"><u>http://www.siriuscom.com/</u></font></a><font size=3 face="Courier New">><br>>>> _______________________________________________<br>>>> gpfsug-discuss mailing list<br>>>> gpfsug-discuss at </font><a href=http://spectrumscale.org/><font size=3 color=#800080 face="Courier New"><u>spectrumscale.org</u></font></a><font size=3 face="Courier New"><</font><a href=http://spectrumscale.org/><font size=3 color=#800080 face="Courier New"><u>http://spectrumscale.org/</u></font></a><font size=3 face="Courier New">><br>>>> </font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size=3 color=#800080 face="Courier New"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><font size=3 face="Courier New"><br>>><br>>> —<br>>> Kevin Buterbaugh - Senior System Administrator<br>>> Vanderbilt University - Advanced Computing Center for Research
and<br>>> Education<br>>> </font><a href=mailto:Kevin.Buterbaugh@vanderbilt.edu><font size=3 color=#800080 face="Courier New"><u>Kevin.Buterbaugh@vanderbilt.edu</u></font></a><font size=3 face="Courier New"><br>>> <</font><a href=mailto:Kevin.Buterbaugh@vanderbilt.edu><font size=3 color=#800080 face="Courier New"><u>mailto:Kevin.Buterbaugh@vanderbilt.edu</u></font></a><font size=3 face="Courier New">>
- (615)875-9633<br>>><br>>><br>>><br>><br>> Ellei edellä ole toisin mainittu: / Unless stated otherwise above:<br>> Oy IBM Finland Ab<br>> PL 265, 00101 Helsinki, Finland<br>> Business ID, Y-tunnus: 0195876-3<br>> Registered in Finland<br>><br>><br>><br>> _______________________________________________<br>> gpfsug-discuss mailing list<br>> gpfsug-discuss at </font><a href=http://spectrumscale.org/><font size=3 color=#800080 face="Courier New"><u>spectrumscale.org</u></font></a><font size=3 face="Courier New"><br>> </font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size=3 color=#800080 face="Courier New"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><font size=3 face="Courier New"><br>><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at </font><a href=http://spectrumscale.org/><font size=3 color=#800080 face="Courier New"><u>spectrumscale.org</u></font></a><font size=3 color=blue><u><br></u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size=3 color=#800080 face="Courier New"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><p><font size=2 face="Cambria">This message (including any attachments)
is intended only for the use of the individual or entity to which it is
addressed and may contain information that is non-public, proprietary,
privileged, confidential, and exempt from disclosure under applicable law.
If you are not the intended recipient, you are hereby notified that any
use, dissemination, distribution, or copying of this communication is strictly
prohibited. This message may be viewed by parties at Sirius Computer Solutions
other than those named in the message header. This message does not contain
an official representation of Sirius Computer Solutions. If you have received
this communication in error, notify Sirius Computer Solutions immediately
and (i) destroy this message if a facsimile or (ii) delete this message
immediately if this is an electronic communication. Thank you.</font><p><a href=http://www.siriuscom.com/><font size=3 color=#800080 face="Calibri"><b><u>Sirius
Computer Solutions</u></b></font></a><font size=3 face="Courier New">_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at </font><a href=http://spectrumscale.org/><font size=3 color=#800080 face="Courier New"><u>spectrumscale.org</u></font></a><font size=3 color=blue><u><br></u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size=3 color=#800080 face="Courier New"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><p><font size=2 face="Helvetica">_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at </font><a href=http://spectrumscale.org/><font size=2 color=#800080 face="Helvetica"><u>spectrumscale.org</u></font></a><font size=3 color=blue><u><br></u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size=2 color=#800080 face="Helvetica"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><tt><font size=3><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font></tt><font size=3 color=blue><u><br></u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=3 color=blue><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></tt></a><font size=4><br></font><tt><font size=3><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font></tt><tt><font size=3 color=blue><u><br></u></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=3 color=blue><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></tt></a><p><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><p><BR>