<div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10pt" ><div dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10pt" ><div dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10pt" ><div dir="ltr" >For:</div>
<div dir="ltr" > </div>
<div dir="ltr" ><font size="3" face="Calibri" >- A NetApp system with hardware RAID<br>- SpectrumScale 4.2.3-13 running on top of the NetApp <strong>< --- Are these NSD servers in their GPFS roles (where Scale "runs on top"</strong>?<br>- A GL2 system with ESS 5.3.2.1 (Spectrum Scale 5.0.2-1)</font><br><br><font size="3" face="Calibri" >What I need to do is to merge the GL2 in the other GPFS cluster (running on the NetApp) without loosing, of course, the RecoveryGroup configuration, etc.</font><br><br><font size="3" face="Calibri" >I'd like to ask the experts</font><br><font size="2" face="sans-serif" >1.        </font><font size="3" face="Calibri" >whether it is feasible, considering the difference in the GPFS versions, architectures differences (x86_64 vs. power)</font><br><font size="2" face="sans-serif" >2.        </font><font size="3" face="Calibri" >if yes, whether anyone already did something like this and what is the best strategy suggested</font><br><font size="2" face="sans-serif" >3.        </font><font size="3" face="Calibri" >finally: is there any documentation dedicated to that, or at least inspiring the correct procedure ?</font><br> </div>
<div dir="ltr" >......</div>
<div dir="ltr" >Some observations:</div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<div dir="ltr" >1) Why do you want to MERGE the GL2 into a single cluster with the rest cluster, rather than simply allowing remote mount of the ESS servers by the other GPFS (NSD client) nodes?</div>
<div dir="ltr" > </div>
<div dir="ltr" >2) Interop of the mix of 4.2 and 5.0 levels should be allowed by our coexistence rules.</div>
<div dir="ltr" > </div>
<div dir="ltr" >3) Mixing x86 and Power, especially as NSD servers, should pose no issues.  Having them as separate file systems (NetApp vs. ESS) means no concerns regarding varying architectures within the same fs serving or failover scheme.  Mixing such as compute nodes would mean some performance differences across the different clients, but you haven't described your compute (NSD client) details.</div>
<div dir="ltr" > </div>
<div dir="ltr" >Lyle</div>
<blockquote data-history-content-modified="1" dir="ltr" style="border-left:solid #aaaaaa 2px; margin-left:5px; padding-left:5px; direction:ltr; margin-right:0px" >----- Original message -----<br>From: "Tomer Perry" <TOMP@il.ibm.com><br>Sent by: gpfsug-discuss-bounces@spectrumscale.org<br>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Cc:<br>Subject: [EXTERNAL] Re: [gpfsug-discuss] How to join GNR nodes to a non-GNR cluster<br>Date: Tue, Dec 3, 2019 10:03 AM<br> <br><font size="2" face="sans-serif" >Hi,</font><br><br><font size="2" face="sans-serif" >Actually, I believe that GNR is not a limiting factor here. </font><br><font size="2" face="sans-serif" >mmexportfs and mmimportfs ( man mm??portfs) will export/import GNR configuration as well:</font><br><font size="2" face="sans-serif" >"</font><font size="3" face="Helvetica Neue" color="#2f2f2f" >If the specified file system device is a IBM Spectrum Scale RAID-based file system, then all affected IBM Spectrum Scale RAID objects will be exported as well. This includes recovery groups, declustered arrays, vdisks, and any other file systems that are based on these objects. For more information about IBM Spectrum Scale RAID, see <i>IBM Spectrum Scale RAID: Administration</i>.</font><font size="3" > </font><font size="2" face="sans-serif" >"</font><br><br><font size="2" face="sans-serif" >OTOH, I suspect that due to the version mismatch, it wouldn't work - since I would assume that the cluster config version is to high for the NetApp based cluster.</font><br><font size="2" face="sans-serif" >I would also suspect that the filesystem version on the ESS will be different.</font><br><br><br><font size="2" face="sans-serif" >Regards,<br><br>Tomer Perry<br>Scalable I/O Development (Spectrum Scale)<br>email: tomp@il.ibm.com<br>1 Azrieli Center, Tel Aviv 67021, Israel<br>Global Tel:    +1 720 3422758<br>Israel Tel:      +972 3 9188625<br>Mobile:         +972 52 2554625</font><br><br><br><br><br><font size="1" face="sans-serif" color="#5f5f5f" >From:        </font><font size="1" face="sans-serif" >"Olaf Weiser" <olaf.weiser@de.ibm.com></font><br><font size="1" face="sans-serif" color="#5f5f5f" >To:        </font><font size="1" face="sans-serif" >gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><br><font size="1" face="sans-serif" color="#5f5f5f" >Date:        </font><font size="1" face="sans-serif" >03/12/2019 16:54</font><br><font size="1" face="sans-serif" color="#5f5f5f" >Subject:        </font><font size="1" face="sans-serif" >[EXTERNAL] Re: [gpfsug-discuss] How to join GNR nodes to a non-GNR cluster</font><br><font size="1" face="sans-serif" color="#5f5f5f" >Sent by:        </font><font size="1" face="sans-serif" >gpfsug-discuss-bounces@spectrumscale.org</font>
<hr noshade="noshade" ><br><br><br><font size="2" face="sans-serif" >Hallo<br>"merging" 2 different GPFS cluster into one .. is not possible ..<br>for sure you can do "nested" mounts .. .but that's most likely not, what you want to do .. </font><br><br><font size="2" face="sans-serif" >if you want to add a GL2 (or any other ESS) ..to an existing (other) cluster... -  you can't preserve ESS's RG definitions...<br>you need to create the RGs after adding the IO-nodes to the existing cluster... </font><br><br><font size="2" face="sans-serif" >so if you got a new ESS.. (no data on it) .. simply unconfigure cluster ..  .. add the nodes to your existing cluster.. and then start configuring the RGs</font><br><br><br><br><br><br><font size="1" face="sans-serif" color="#5f5f5f" >From:        </font><font size="1" face="sans-serif" >"Dorigo Alvise (PSI)" <alvise.dorigo@psi.ch></font><br><font size="1" face="sans-serif" color="#5f5f5f" >To:        </font><font size="1" face="sans-serif" >"gpfsug-discuss@spectrumscale.org" <gpfsug-discuss@spectrumscale.org></font><br><font size="1" face="sans-serif" color="#5f5f5f" >Date:        </font><font size="1" face="sans-serif" >12/03/2019 09:35 AM</font><br><font size="1" face="sans-serif" color="#5f5f5f" >Subject:        </font><font size="1" face="sans-serif" >[EXTERNAL] [gpfsug-discuss] How to join GNR nodes to a non-GNR cluster</font><br><font size="1" face="sans-serif" color="#5f5f5f" >Sent by:        </font><font size="1" face="sans-serif" >gpfsug-discuss-bounces@spectrumscale.org</font>
<hr noshade="noshade" ><br><br><br><font size="3" face="Calibri" >Hello everyone,<br>I have:<br>- A NetApp system with hardware RAID<br>- SpectrumScale 4.2.3-13 running on top of the NetApp<br>- A GL2 system with ESS 5.3.2.1 (Spectrum Scale 5.0.2-1)</font><br><br><font size="3" face="Calibri" >What I need to do is to merge the GL2 in the other GPFS cluster (running on the NetApp) without loosing, of course, the RecoveryGroup configuration, etc.</font><br><br><font size="3" face="Calibri" >I'd like to ask the experts</font><br><font size="2" face="sans-serif" >1.        </font><font size="3" face="Calibri" >whether it is feasible, considering the difference in the GPFS versions, architectures differences (x86_64 vs. power)</font><br><font size="2" face="sans-serif" >2.        </font><font size="3" face="Calibri" >if yes, whether anyone already did something like this and what is the best strategy suggested</font><br><font size="2" face="sans-serif" >3.        </font><font size="3" face="Calibri" >finally: is there any documentation dedicated to that, or at least inspiring the correct procedure ?</font><br><br><font size="3" face="Calibri" >Thank you very much,</font><br><br><font size="3" face="Calibri" >  Alvise Dorigo</font><tt><font size="3" face="" >_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font></tt><br><tt><font size="3" face="" color="blue" ><u><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></u></font></tt><br><br><br><tt><font size="3" face="" >_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font></tt><br><tt><font size="3" face="" ><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></tt><br><br><br> 
<div><font size="2" face="Default Monospace,Courier New,Courier,monospace" >_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a> </font></div></blockquote>
<div dir="ltr" > </div></div></div></div><BR>