<html><body><p><font size="2">One tricky bit in this case is that ESS is always recommended to be its own standalone cluster, so MERGING it as a storage pool or pools into a cluster already containing NetApp storage wouldn't be generally recommended.</font><br><br><font size="2">Yet you cannot achieve the stated goal of a single fs image/mount point containing both types of storage that way.</font><br><br><font size="2">Perhaps our ESS folk should weigh in regarding possible routs?</font><br><br><font size="2">Lyle</font><br><br><img width="16" height="16" src="cid:1__=8FBB0E54DFC4FD488f9e8a93df938690918c8FB@" border="0" alt="Inactive hide details for Christopher Black ---12/05/2019 10:53:22 AM---If you have two clusters that are hard to merge, but yo"><font size="2" color="#424282">Christopher Black ---12/05/2019 10:53:22 AM---If you have two clusters that are hard to merge, but you are facing the need to provide capacity for</font><br><br><font size="2" color="#5F5F5F">From:        </font><font size="2">Christopher Black <cblack@nygenome.org></font><br><font size="2" color="#5F5F5F">To:        </font><font size="2">gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><br><font size="2" color="#5F5F5F">Date:        </font><font size="2">12/05/2019 10:53 AM</font><br><font size="2" color="#5F5F5F">Subject:        </font><font size="2">[EXTERNAL] Re: [gpfsug-discuss] How to join GNR nodes to a non-GNR cluster</font><br><font size="2" color="#5F5F5F">Sent by:        </font><font size="2">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br><br><br><font face="Calibri">If you have two clusters that are hard to merge, but you are facing the need to provide capacity for more writes, another option to consider would be to set up a filesystem on GL2 with an AFM relationship to the filesystem on the netapp gpfs cluster for accessing older data and point clients to the new GL2 filesystem.</font><br><font face="Calibri">Some downsides to that approach include introducing a dependency on afm (and potential performance reduction) to get to older data. There may also be complications depending on how your filesets are laid out.</font><br><font face="Calibri">At some point when you have more capacity in 5.x cluster and/or are ready to move off netapp, you could use afm to prefetch all data into new filesystem. In theory, you could then (re)build nsd servers connected to netapp on 5.x and add them to new cluster and use them for a separate pool or keep them as a separate 5.x cluster.</font><br><font face="Calibri"> </font><br><font face="Calibri">Best,</font><br><font face="Calibri">Chris</font><br><font face="Calibri"> </font><br><b><font face="Calibri">From: </font></b><font face="Calibri"><gpfsug-discuss-bounces@spectrumscale.org> on behalf of "Dorigo Alvise (PSI)" <alvise.dorigo@psi.ch></font><b><font face="Calibri"><br>Reply-To: </font></b><font face="Calibri">gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><b><font face="Calibri"><br>Date: </font></b><font face="Calibri">Thursday, December 5, 2019 at 9:50 AM</font><b><font face="Calibri"><br>To: </font></b><font face="Calibri">gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><b><font face="Calibri"><br>Subject: </font></b><font face="Calibri">Re: [gpfsug-discuss] How to join GNR nodes to a non-GNR cluster</font><br><font face="Calibri"> </font><p>This is a quite critical storage for data taking. It is not easy to update to GPFS5 because in that facility we have very short shutdown period. Thank you for pointing out that 4.2.3. But the entire storage will be replaced in the future; at the moment we just need to expand it to survive for a while.
<p> 
<p>This merge seems quite tricky to implement and I haven't seen consistent opinions among the people that kindly answered. According to Jan Frode, Kaplan and T. Perry it should be possible, in principle, to do the merge... Other people suggest a remote mount, which is not a solution for my use case. Other suggest not to do that...
<p> 
<p>   A
<p> 
<p> <div align="center"><hr width="100%" size="2" align="center"></div><b><font face="Calibri">From:</font></b><font face="Calibri"> gpfsug-discuss-bounces@spectrumscale.org <gpfsug-discuss-bounces@spectrumscale.org> on behalf of Daniel Kidger <daniel.kidger@uk.ibm.com></font><b><font face="Calibri"><br>Sent:</font></b><font face="Calibri"> Thursday, December 5, 2019 11:24:08 AM</font><b><font face="Calibri"><br>To:</font></b><font face="Calibri"> gpfsug main discussion list</font><b><font face="Calibri"><br>Subject:</font></b><font face="Calibri"> Re: [gpfsug-discuss] How to join GNR nodes to a non-GNR cluster </font><br><font face="Calibri"> </font><br><font face="Calibri">One additional question to ask is : what are your long term plans for the 4.2.3 Spectrum Scake cluster?  Do you expect to upgrade it to version 5.x (hopefully before 4.2.3 goes out of support)? </font><br><font face="Calibri"> </font><br><font face="Calibri">Also I assume your Netapp hardware is the standard Netapp block storage, perhaps based on their standard 4U60 shelves daisy-chained together?</font><br><font face="Calibri">Daniel</font><br><font face="Calibri"> </font><br><font face="Calibri">_________________________________________________________</font><b><font face="Calibri"><br>Daniel Kidger</font></b><br><font face="Calibri">IBM Technical Sales Specialist</font><br><font face="Calibri">Spectrum Scale, Spectrum Discover and IBM Cloud Object Store<br></font><u><font color="#0000FF" face="Calibri"><br></font></u><a href="tel:+44-7818%20522%20266"><u><font color="#0000FF" face="Calibri">+</font></u></a><a href="tel:+44-7818%20522%20266"><u><font color="#0000FF" face="Calibri">44-(0)7818 522 266</font></u></a><font face="Calibri"> </font><u><font color="#0000FF" face="Calibri"><br></font></u><a href="mailto:daniel.kidger@uk.ibm.com"><u><font color="#0000FF" face="Calibri">daniel.kidger@uk.ibm.com</font></u></a><font face="Calibri"> </font><p><table class="MsoNormalTable" border="0" cellspacing="0" cellpadding="0"><tr valign="top"><td width="88" valign="middle"><a href="https://www.youracclaim.com/badges/687cf790-fe65-4a92-b129-d23ae41862ac/public_url" target="_blank"></a></td><td width="88" valign="middle"><a href="https://www.youracclaim.com/badges/8153c6a7-3e02-40be-87ee-24e27ae9459c/public_url" target="_blank"></a></td><td width="88" valign="middle"><a href="https://www.youracclaim.com/badges/78197e2c-4277-4ec9-808b-ad6abe1e1b16/public_url" target="_blank"></a></td></tr></table><font face="Calibri"><br></font><br><font face="Calibri"><br></font><br><font face="Calibri"><br></font><ul><ul><font face="Calibri">On 5 Dec 2019, at 09:29, Dorigo Alvise (PSI) <alvise.dorigo@psi.ch> wrote:</font><br>Thank Anderson for the material. In principle our idea was to scratch the filesystem in the GL2, put its NSD on a dedicated pool and then merge it into the Filesystem which would remain on V4. I do not want to create a FS in the GL2 but use its space to expand the space of the other cluster.
<p> 
<p>   A<div align="center"><hr width="100%" size="2" align="center"></div><b><font face="Calibri">From:</font></b><font face="Calibri"> gpfsug-discuss-bounces@spectrumscale.org <gpfsug-discuss-bounces@spectrumscale.org> on behalf of Anderson Ferreira Nobre <anobre@br.ibm.com></font><b><font face="Calibri"><br>Sent:</font></b><font face="Calibri"> Wednesday, December 4, 2019 3:07:18 PM</font><b><font face="Calibri"><br>To:</font></b><font face="Calibri"> gpfsug-discuss@spectrumscale.org</font><b><font face="Calibri"><br>Subject:</font></b><font face="Calibri"> Re: [gpfsug-discuss] How to join GNR nodes to a non-GNR cluster </font><br><font face="Calibri"> </font><br><font size="2" face="Arial">Hi Dorigo,</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">From point of view of cluster administration I don't think it's a good idea to have hererogeneous cluster. There are too many diferences between V4 and V5. And much probably many of enhancements of V5 you won't take advantage. One example is the new filesystem layout in V5. And at this moment the way to migrate the filesystem is create a new filesystem in V5 with the new layout and migrate the data. That is inevitable. I have seen clients saying that they don't need all that enhancements, but the true is when you face performance issue that is only addressable with the new features someone will raise the question why we didn't consider that in the beginning.</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">Use this time to review if it would be better to change the block size of your fileystem. There's a script called filehist in /usr/lpp/mmfs/samples/debugtools to create a histogram of files in your current filesystem. Here's the link with additional information:</font><br><a href="https://www.ibm.com/developerworks/community/wikis/home?lang=en#!/wiki/General%20Parallel%20File%20System%20(GPFS)/page/Data%20and%20Metadata"><u><font size="2" color="#0000FF" face="Arial">https://www.ibm.com/developerworks/community/wikis/home?lang=en#!/wiki/General%20Parallel%20File%20System%20(GPFS)/page/Data%20and%20Metadata</font></u></a><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">Different RAID configurations also brings unexpected performance behaviors. Unless you are planning create different pools and use ILM to manage the files in different pools.</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">One last thing, it's a good idea to follow the recommended levels for Spectrum Scale:</font><br><a href="https://www.ibm.com/support/pages/ibm-spectrum-scale-software-version-recommendation-preventive-service-planning"><u><font size="2" color="#0000FF" face="Arial">https://www.ibm.com/support/pages/ibm-spectrum-scale-software-version-recommendation-preventive-service-planning</font></u></a><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">Anyway, you are the system administrator, you know better than anyone how complex is to manage this cluster.</font><br><font face="Arial"> </font></ul></ul>
<table class="MsoNormalTable" border="0" cellspacing="0" cellpadding="0"><tr valign="top"><td width="644" valign="bottom"><font size="2" color="#5F5F5F" face="Calibri">Abraços / Regards / Saludos,</font><p><font size="1" color="#5F5F5F"> </font><br><b><font color="#888888" face="Calibri">AndersonNobre</font></b><font size="1" color="#5F5F5F" face="Calibri"><br>Power and Storage Consultant<br>IBM Systems Hardware Client Technical Team – IBM Systems Lab Services<br><br></font></td><td width="6" valign="middle"><font size="1" color="#5F5F5F" face="Calibri"> </font></td></tr></table>
<ul><ul><font face="Arial"> </font></ul></ul>
<table class="MsoNormalTable" border="0" cellspacing="0" cellpadding="0"><tr valign="top"><td width="650" colspan="3" valign="middle"><div align="center"><hr width="100%" size="2" align="center" noshade></div></td></tr>
<tr valign="top"><td width="501"><b><font size="1" color="#466BB0" face="Arial">Phone:</font></b><font size="1" color="#5F5F5F" face="Arial">55-19-2132-4317</font><b><font size="1" color="#466BB0" face="Arial"><br>E-mail:</font></b><font size="1" color="#5F5F5F" face="Arial"> </font><a href="mailto:anobre@br.ibm.com" target="_blank"><u><font size="1" color="#5F5F5F" face="Arial">anobre@br.ibm.com</font></u></a></td><td width="136"><img width="1" height="1" src="cid:2__=8FBB0E54DFC4FD488f9e8a93df938690918c8FB@" border="0" alt=""></td><td width="13" valign="middle"><img width="1" height="1" src="cid:2__=8FBB0E54DFC4FD488f9e8a93df938690918c8FB@" border="0" alt=""></td></tr></table>
<ul><ul><font size="2" face="Arial"> </font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">----- Original message -----<br>From: "Dorigo Alvise (PSI)" <alvise.dorigo@psi.ch><br>Sent by: gpfsug-discuss-bounces@spectrumscale.org<br>To: "gpfsug-discuss@spectrumscale.org" <gpfsug-discuss@spectrumscale.org><br>Cc:<br>Subject: [EXTERNAL] Re: [gpfsug-discuss] How to join GNR nodes to a non-GNR cluster<br>Date: Wed, Dec 4, 2019 06:44<br> <br></font><p>Thank you all for the answer. I try to recap my answers to your questions:
<p> 
<ul><font size="2">1.        </font><font face="Calibri">the purpose is not to merge clusters "per se"; it is adding the GL2's 700TB raw space to the current filesystem provided by the GPFS/NetApp (which is running out of free space); of course I know well the heterogeneity of this hypothetical system, so the GL2's NSD would go to a special pool; but in the end I need a unique namespace for files. </font><br><font size="2">2.        </font><font face="Calibri">I do not want to do the opposite (mergin GPFS/NetApp into the GL2 cluster) because the former is in production and I cannot schedule long downtimes </font><br><font size="2">3.        </font><font face="Calibri">All system have proper licensing of course; what does it means that I could loose IBM support ? if the support is for a failing disk drive I do not think so; if the support is for a "strange" behaviour of GPFS I can probably understand </font><br><font size="2">4.        </font><font face="Calibri">NSD (in the NetApp system) are in their roles: what do you mean exactly ? there's RAIDset attached to servers that are actually NSD together with their attached LUN</font></ul><font face="Calibri"> </font><br><font face="Calibri">   Alvise</font><div align="center"><hr width="100%" size="2" align="center"></div><b><font face="Calibri">From:</font></b><font face="Calibri"> gpfsug-discuss-bounces@spectrumscale.org <gpfsug-discuss-bounces@spectrumscale.org> on behalf of Lyle Gayne <lgayne@us.ibm.com></font><b><font face="Calibri"><br>Sent:</font></b><font face="Calibri"> Tuesday, December 3, 2019 8:30:31 PM</font><b><font face="Calibri"><br>To:</font></b><font face="Calibri"> gpfsug-discuss@spectrumscale.org</font><b><font face="Calibri"><br>Cc:</font></b><font face="Calibri"> gpfsug-discuss@spectrumscale.org</font><b><font face="Calibri"><br>Subject:</font></b><font face="Calibri"> Re: [gpfsug-discuss] How to join GNR nodes to a non-GNR cluster</font><font size="2" face="Arial"> </font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">For:</font><br><font size="2" face="Arial"> </font><br><font face="Calibri">- A NetApp system with hardware RAID<br>- SpectrumScale 4.2.3-13 running on top of the NetApp </font><b><font face="Calibri">< --- Are these NSD servers in their GPFS roles (where Scale "runs on top"</font></b><font face="Calibri">?<br>- A GL2 system with ESS 5.3.2.1 (Spectrum Scale 5.0.2-1)</font><font size="2" face="Arial"><br></font><font face="Calibri"><br>What I need to do is to merge the GL2 in the other GPFS cluster (running on the NetApp) without loosing, of course, the RecoveryGroup configuration, etc.</font><font size="2" face="Arial"><br></font><font face="Calibri"><br>I'd like to ask the experts</font><font size="2" face="Arial"><br>1.        </font><font face="Calibri">whether it is feasible, considering the difference in the GPFS versions, architectures differences (x86_64 vs. power)</font><font size="2" face="Arial"><br>2.        </font><font face="Calibri">if yes, whether anyone already did something like this and what is the best strategy suggested</font><font size="2" face="Arial"><br>3.        </font><font face="Calibri">finally: is there any documentation dedicated to that, or at least inspiring the correct procedure ?</font><font size="2" face="Arial"><br> </font><br><font size="2" face="Arial">......</font><br><font size="2" face="Arial">Some observations:</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">1) Why do you want to MERGE the GL2 into a single cluster with the rest cluster, rather than simply allowing remote mount of the ESS servers by the other GPFS (NSD client) nodes?</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">2) Interop of the mix of 4.2 and 5.0 levels should be allowed by our coexistence rules.</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">3) Mixing x86 and Power, especially as NSD servers, should pose no issues.  Having them as separate file systems (NetApp vs. ESS) means no concerns regarding varying architectures within the same fs serving or failover scheme.  Mixing such as compute nodes would mean some performance differences across the different clients, but you haven't described your compute (NSD client) details.</font><br><font size="2" face="Arial"> </font><br><font size="2" face="Arial">Lyle</font><br><font size="2" face="Arial">----- Original message -----<br>From: "Tomer Perry" <TOMP@il.ibm.com><br>Sent by: gpfsug-discuss-bounces@spectrumscale.org<br>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Cc:<br>Subject: [EXTERNAL] Re: [gpfsug-discuss] How to join GNR nodes to a non-GNR cluster<br>Date: Tue, Dec 3, 2019 10:03 AM<br> <br>Hi,<br><br>Actually, I believe that GNR is not a limiting factor here. <br>mmexportfs and mmimportfs ( man mm??portfs) will export/import GNR configuration as well:<br>"</font><font color="#2F2F2F" face="Helvetica Neue">If the specified file system device is a IBM Spectrum Scale RAID-based file system, then all affected IBM Spectrum Scale RAID objects will be exported as well. This includes recovery groups, declustered arrays, vdisks, and any other file systems that are based on these objects. For more information about IBM Spectrum Scale RAID, see </font><i><font color="#2F2F2F" face="Helvetica Neue">IBM Spectrum Scale RAID: Administration</font></i><font color="#2F2F2F" face="Helvetica Neue">.</font><font size="2" face="Arial">"<br><br>OTOH, I suspect that due to the version mismatch, it wouldn't work - since I would assume that the cluster config version is to high for the NetApp based cluster.<br>I would also suspect that the filesystem version on the ESS will be different.<br><br><br>Regards,<br><br>Tomer Perry<br>Scalable I/O Development (Spectrum Scale)<br>email: tomp@il.ibm.com<br>1 Azrieli Center, Tel Aviv 67021, Israel<br>Global Tel:    +1 720 3422758<br>Israel Tel:      +972 3 9188625<br>Mobile:         +972 52 2554625<br><br><br><br></font><font size="1" color="#5F5F5F" face="Arial"><br>From:        </font><font size="1" face="Arial">"Olaf Weiser" <olaf.weiser@de.ibm.com></font><font size="1" color="#5F5F5F" face="Arial"><br>To:        </font><font size="1" face="Arial">gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><font size="1" color="#5F5F5F" face="Arial"><br>Date:        </font><font size="1" face="Arial">03/12/2019 16:54</font><font size="1" color="#5F5F5F" face="Arial"><br>Subject:        </font><font size="1" face="Arial">[EXTERNAL] Re: [gpfsug-discuss] How to join GNR nodes to a non-GNR cluster</font><font size="1" color="#5F5F5F" face="Arial"><br>Sent by:        </font><font size="1" face="Arial">gpfsug-discuss-bounces@spectrumscale.org</font><font size="2" face="Arial"> </font><div align="center"><hr width="100%" size="2" align="center" noshade></div><font size="2" face="Arial"><br><br><br>Hallo<br>"merging" 2 different GPFS cluster into one .. is not possible ..<br>for sure you can do "nested" mounts .. .but that's most likely not, what you want to do .. <br><br>if you want to add a GL2 (or any other ESS) ..to an existing (other) cluster... -  you can't preserve ESS's RG definitions...<br>you need to create the RGs after adding the IO-nodes to the existing cluster... <br><br>so if you got a new ESS.. (no data on it) .. simply unconfigure cluster ..  .. add the nodes to your existing cluster.. and then start configuring the RGs<br><br><br><br><br></font><font size="1" color="#5F5F5F" face="Arial"><br>From:        </font><font size="1" face="Arial">"Dorigo Alvise (PSI)" <alvise.dorigo@psi.ch></font><font size="1" color="#5F5F5F" face="Arial"><br>To:        </font><font size="1" face="Arial">"gpfsug-discuss@spectrumscale.org" <gpfsug-discuss@spectrumscale.org></font><font size="1" color="#5F5F5F" face="Arial"><br>Date:        </font><font size="1" face="Arial">12/03/2019 09:35 AM</font><font size="1" color="#5F5F5F" face="Arial"><br>Subject:        </font><font size="1" face="Arial">[EXTERNAL] [gpfsug-discuss] How to join GNR nodes to a non-GNR cluster</font><font size="1" color="#5F5F5F" face="Arial"><br>Sent by:        </font><font size="1" face="Arial">gpfsug-discuss-bounces@spectrumscale.org</font><font size="2" face="Arial"> </font><div align="center"><hr width="100%" size="2" align="center" noshade></div><font size="2" face="Arial"><br><br></font><font face="Calibri"><br>Hello everyone,<br>I have:<br>- A NetApp system with hardware RAID<br>- SpectrumScale 4.2.3-13 running on top of the NetApp<br>- A GL2 system with ESS 5.3.2.1 (Spectrum Scale 5.0.2-1)</font><font size="2" face="Arial"><br></font><font face="Calibri"><br>What I need to do is to merge the GL2 in the other GPFS cluster (running on the NetApp) without loosing, of course, the RecoveryGroup configuration, etc.</font><font size="2" face="Arial"><br></font><font face="Calibri"><br>I'd like to ask the experts</font><font size="2" face="Arial"><br>1.        </font><font face="Calibri">whether it is feasible, considering the difference in the GPFS versions, architectures differences (x86_64 vs. power)</font><font size="2" face="Arial"><br>2.        </font><font face="Calibri">if yes, whether anyone already did something like this and what is the best strategy suggested</font><font size="2" face="Arial"><br>3.        </font><font face="Calibri">finally: is there any documentation dedicated to that, or at least inspiring the correct procedure ?</font><font size="2" face="Arial"><br></font><font face="Calibri"><br>Thank you very much,</font><font size="2" face="Arial"><br></font><font face="Calibri"><br>  Alvise Dorigo</font><font face="Courier New">_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font><u><font color="#0000FF" face="Courier New"><br></font></u><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank"><u><font color="#0000FF" face="Courier New">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></u></a><font size="2" face="Arial"><br><br></font><font face="Courier New"><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font><u><font color="#0000FF" face="Courier New"><br></font></u><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank"><u><font color="#0000FF" face="Courier New">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></u></a><font size="2" face="Arial"><br><br><br>  </font><br><font size="2" face="Courier New">_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font><u><font size="2" color="#0000FF" face="Courier New"><br></font></u><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank"><u><font size="2" color="#0000FF" face="Courier New">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></u></a><font size="2" face="Courier New"> </font><br><font size="2" face="Arial"> </font><br><font size="2" face="Courier New">_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font><u><font size="2" color="#0000FF" face="Courier New"><br></font></u><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank"><u><font size="2" color="#0000FF" face="Courier New">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></u></a><font size="2" face="Courier New"> </font><br><font size="2" face="Arial"> </font><br><font face="Calibri"> </font></ul></ul><font face="Calibri">Unless stated otherwise above:<br>IBM United Kingdom Limited - Registered in England and Wales with number 741598. <br>Registered office: PO Box 41, North Harbour, Portsmouth, Hampshire PO6 3AU</font><p><hr width="100%" size="2" align="left"><br><font size="1" face="Arial">This message is for the recipient’s use only, and may contain confidential, privileged or protected information. Any unauthorized use or dissemination of this communication is prohibited. If you received this message in error, please immediately notify the sender and destroy all copies of this message. The recipient should check this email and any attachments for the presence of viruses, as we accept no liability for any damage caused by any virus transmitted by this email.</font><br><tt><font size="2">_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><tt><font size="2"><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></tt><tt><font size="2"> <br></font></tt><br><br><BR>
</body></html>