<html><body><p>File copy OR AFM. <br><br><br>Scott Fadden<br>Spectrum Scale - Technical Marketing <br>Phone: (503) 880-5833  <br>sfadden@us.ibm.com<br><a href="http://www.ibm.com/systems/storage/spectrum/scale">http://www.ibm.com/systems/storage/spectrum/scale</a><br><br><img width="16" height="16" src="cid:1__=0CBBF5DADFFCC8E58f9e8a93df938690918c0CB@" border="0" alt="Inactive hide details for "Oesterlin, Robert" ---01/29/2016 05:50:00 PM---Not talking about ESS specifically, but It’s not pos"><font color="#424282">"Oesterlin, Robert" ---01/29/2016 05:50:00 PM---Not talking about ESS specifically, but It’s not possible to change the block size of an existing fi</font><br><br><font size="2" color="#5F5F5F">From:        </font><font size="2">"Oesterlin, Robert" <Robert.Oesterlin@nuance.com></font><br><font size="2" color="#5F5F5F">To:        </font><font size="2">gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><br><font size="2" color="#5F5F5F">Date:        </font><font size="2">01/29/2016 05:50 PM</font><br><font size="2" color="#5F5F5F">Subject:        </font><font size="2">Re: [gpfsug-discuss] migrating data from GPFS3.5 to ESS appliance        (GPFS4.1)</font><br><font size="2" color="#5F5F5F">Sent by:        </font><font size="2">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br><br><br>Not talking about ESS specifically, but It’s not possible to change the block size of an existing file system – you are pretty much stuck with file copy. Something I wish IBM would address, I’d love to change the block size of some of my file system too.<br><br>Bob Oesterlin<br>Sr Storage Engineer, Nuance HPC Grid<br>507-269-0413<br><br><br><b><font size="4" face="Calibri">From: </font></b><font size="4" face="Calibri"><</font><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org"><u><font size="4" color="#0000FF" face="Calibri">gpfsug-discuss-bounces@spectrumscale.org</font></u></a><font size="4" face="Calibri">> on behalf of Damir Krstic <</font><a href="mailto:damir.krstic@gmail.com"><u><font size="4" color="#0000FF" face="Calibri">damir.krstic@gmail.com</font></u></a><font size="4" face="Calibri">></font><b><font size="4" face="Calibri"><br>Reply-To: </font></b><font size="4" face="Calibri">gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@spectrumscale.org"><u><font size="4" color="#0000FF" face="Calibri">gpfsug-discuss@spectrumscale.org</font></u></a><font size="4" face="Calibri">></font><b><font size="4" face="Calibri"><br>Date: </font></b><font size="4" face="Calibri">Friday, January 29, 2016 at 1:31 PM</font><b><font size="4" face="Calibri"><br>To: </font></b><font size="4" face="Calibri">gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@spectrumscale.org"><u><font size="4" color="#0000FF" face="Calibri">gpfsug-discuss@spectrumscale.org</font></u></a><font size="4" face="Calibri">></font><b><font size="4" face="Calibri"><br>Subject: </font></b><font size="4" face="Calibri">[gpfsug-discuss] migrating data from GPFS3.5 to ESS appliance (GPFS4.1)</font><br><br><font size="4">We were planning of adding ESS to our existing GPFS cluster and adding its disks and then deleting our old disks and having the data migrated this way. However, our existing block size on our projects filesystem is 1M and in order to extract as much performance out of ESS we would like its filesystem created with larger block size. Besides rsync do you have any suggestions of how to do this without downtime and in fastest way possible? </font> <tt>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></tt><tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></tt><tt><br></tt><br><br><BR>
</body></html>