<div dir="ltr">Doug, <div><br></div><div>This won't really work if you make use of ACL's or use special GPFS extended attributes or set quotas, filesets, etc <div>so unfortunate the answer is you need to use a combination of things and there is work going on to make some of this simpler (e.g. for ACL's) , but its a longer road to get there.  so until then you need to think about multiple aspects . </div></div><div><br></div><div>1. you need to get the data across and there are various ways to do this. </div><div><br></div><div>a) AFM is the simplest of all as it not just takes care of ACL's and extended attributes and alike as it understands the GPFS internals it also is operating in parallel can prefetch data, etc so its a efficient way to do this but as already pointed out doesn't transfer quota or fileset informations. </div><div><br></div><div>b) you can either use rsync or any other pipe based copy program. the downside is that they are typical single threaded and do a file by file approach, means very metadata intensive on the source as well as target side and cause a lot of ios on both side. </div><div><br></div><div>c) you can use the policy engine to create a list of files to transfer to at least address the single threaded scan part, then partition the data and run multiple instances of cp or rsync in parallel, still doesn't fix the ACL / EA issues, but the data gets there faster. </div><div><br></div><div>2. you need to get ACL/EA informations over too. there are several command line options to dump the data and restore it, they kind of suffer the same problem as data transfers , which is why using AFM is the best way of doing this if you rely on ACL/EA  informations. </div><div><br></div><div>3. transfer quota / fileset infos.  there are several ways to do this, but all require some level of scripting to do this. </div><div><br></div><div>if you have TSM/HSM you could also transfer the data using SOBAR it's described in the advanced admin book. </div><div><br></div><div>sven</div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jan 29, 2016 at 11:35 AM, Hughes, Doug <span dir="ltr"><<a href="mailto:Douglas.Hughes@deshawresearch.com" target="_blank">Douglas.Hughes@deshawresearch.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">





<div lang="EN-US" link="blue" vlink="purple">
<div>
<p class="MsoNormal"><font size="2" color="#1f497d" face="Calibri"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1f497d">I have found that a tar pipe is much faster than rsync for this sort of thing. The fastest of these is ‘star’
 (schily tar). On average it is about 2x-5x faster than rsync for doing this. After one pass with this, you can use rsync for a subsequent or last pass synch.<u></u><u></u></span></font></p>
<p class="MsoNormal"><font size="2" color="#1f497d" face="Calibri"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1f497d"><u></u> <u></u></span></font></p>
<p class="MsoNormal"><font size="2" color="#1f497d" face="Calibri"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1f497d">e.g.<u></u><u></u></span></font></p>
<p class="MsoNormal"><font size="2" color="#1f497d" face="Calibri"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1f497d">$ cd /export/gpfs1/foo<u></u><u></u></span></font></p>
<p class="MsoNormal"><font size="2" color="#1f497d" face="Calibri"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1f497d">$ star –c H=xtar | (cd /export/gpfs2/foo; star –xp)<u></u><u></u></span></font></p>
<p class="MsoNormal"><font size="2" color="#1f497d" face="Calibri"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1f497d"><u></u> <u></u></span></font></p>
<p class="MsoNormal"><font size="2" color="#1f497d" face="Calibri"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1f497d">This also will not preserve filesets and quotas, though. You should be able to automate that with a little bit
 of awk, perl, or whatnot.<u></u><u></u></span></font></p>
<p class="MsoNormal"><font size="2" color="#1f497d" face="Calibri"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1f497d"><u></u> <u></u></span></font></p>
<p class="MsoNormal"><font size="2" color="#1f497d" face="Calibri"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1f497d"><u></u> <u></u></span></font></p>
<p class="MsoNormal" style="margin-left:.5in"><b><font size="2" face="Tahoma"><span style="font-size:10.0pt;font-family:"Tahoma","sans-serif";font-weight:bold">From:</span></font></b><font size="2" face="Tahoma"><span style="font-size:10.0pt;font-family:"Tahoma","sans-serif"">
 <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank">gpfsug-discuss-bounces@spectrumscale.org</a> [mailto:<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank">gpfsug-discuss-bounces@spectrumscale.org</a>]
<b><span style="font-weight:bold">On Behalf Of </span></b>Damir Krstic<br>
<b><span style="font-weight:bold">Sent:</span></b> Friday, January 29, 2016 2:32 PM<br>
<b><span style="font-weight:bold">To:</span></b> gpfsug main discussion list<br>
<b><span style="font-weight:bold">Subject:</span></b> [gpfsug-discuss] migrating data from GPFS3.5 to ESS appliance (GPFS4.1)<u></u><u></u></span></font></p><span class="">
<p class="MsoNormal" style="margin-left:.5in"><font size="3" face="Times New Roman"><span style="font-size:12.0pt"><u></u> <u></u></span></font></p>
<div>
<p class="MsoNormal" style="margin-left:.5in"><font size="3" face="Times New Roman"><span style="font-size:12.0pt">We have recently purchased ESS appliance from IBM (GL6) with 1.5PT of storage. We are in planning stages of implementation. We would like to migrate
 date from our existing GPFS installation (around 300TB) to new solution. <u></u><u></u></span></font></p>
<div>
<p class="MsoNormal" style="margin-left:.5in"><font size="3" face="Times New Roman"><span style="font-size:12.0pt"><u></u> <u></u></span></font></p>
</div>
<div>
<p class="MsoNormal" style="margin-left:.5in"><font size="3" face="Times New Roman"><span style="font-size:12.0pt">We were planning of adding ESS to our existing GPFS cluster and adding its disks and then deleting our old disks and having the data migrated
 this way. However, our existing block size on our projects filesystem is 1M and in order to extract as much performance out of ESS we would like its filesystem created with larger block size. Besides rsync do you have any suggestions of how to do this without
 downtime and in fastest way possible? <u></u><u></u></span></font></p>
</div>
<div>
<p class="MsoNormal" style="margin-left:.5in"><font size="3" face="Times New Roman"><span style="font-size:12.0pt"><u></u> <u></u></span></font></p>
</div>
<div>
<p class="MsoNormal" style="margin-left:.5in"><font size="3" face="Times New Roman"><span style="font-size:12.0pt">I have looked at AFM but it does not seem to migrate quotas and filesets so that may not be an optimal solution. <u></u><u></u></span></font></p>
</div>
</div>
</span></div>
</div>

<br>_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>
<br></blockquote></div><br></div>