<font size=3 face="Arial">As I think you understand we can only provide
general guidance as regards your questions.  If you want a detailed
examination of your requirements and a proposal for a solution you will
need to engage the appropriate IBM services team.</font><br><br><font size=3 face="Arial">My personal recommendation is to use as few
file systems as possible, preferably just one.  The reason is that
makes general administration, and storage management, easier.  If
you do use filesets I suggest you use independent filesets because they
offer more administrative control than dependent filesets.  As for
the number of nodes in the cluster that depends on your requirements for
performance and availability.  If you do have only 2 then you will
need a tiebreaker disk to resolve quorum issues should the network between
the nodes have problems.  If you intend to continue to use HSM I would
suggest you use the GPFS policy engine to drive the migrations because
it should be more efficient than using HSM directly.</font><br><br><font size=2 face="sans-serif">Regards, The Spectrum Scale (GPFS) team<br><br>------------------------------------------------------------------------------------------------------------------<br>If you feel that your question can benefit other users of  Spectrum
Scale (GPFS), then please post it to the public IBM developerWroks Forum
at </font><a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479"><font size=2 face="sans-serif">https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479</font></a><font size=2 face="sans-serif">.
<br><br>If your query concerns a potential software error in Spectrum Scale (GPFS)
and you have an IBM software maintenance contract please contact  1-800-237-5511
in the United States or your local IBM Service Center in other countries.
<br><br>The forum is informally monitored as time permits and should not be used
for priority messages to the Spectrum Scale (GPFS) team.</font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">Pawel Dziekonski <dzieko@wcss.pl></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">gpfsug-discuss@spectrumscale.org</font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">02/12/2018 10:18 AM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">[gpfsug-discuss]
Configuration advice</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><tt><font size=2>Hi All,<br><br>I inherited from previous admin 2 separate gpfs machines.<br>All hardware+software is old so I want to switch to new<br>servers, new disk arrays, new gpfs version and new gpfs<br>"design".  <br><br>Each machine has 4 gpfs filesystems and runs a TSM HSM<br>client that migrates data to tapes using separate TSM<br>servers:<br>GPFS+HSM no 1 -> TSM server no 1 -> tapes<br>GPFS+HSM no 2 -> TSM server no 2 -> tapes<br><br>Migration is done by HSM (not GPFS policies).<br><br>All filesystems are used for archiving results from HPC<br>system and other files (a kind of backup - don't ask...).<br>Data is written by users via nfs shares. There are 8 nfs<br>mount points corresponding to 8 gpfs filesystems, but there<br>is no real reason for that.<br><br>4 filesystems are large and heavily used, 4 remaining <br>are almost not used.<br><br>The question is how to configure new gpfs infrastructure?<br>My initial impression is that I should create a GPFS cluster<br>of 2+ nodes and export NFS using CES.  The most important<br>question is how many filesystem do I need? Maybe just 2 and<br>8 filesets?<br>Or how to do that in a flexible way and not to lock myself<br>in stupid configuration?<br><br>any hints?<br>thanks, Pawel<br><br>ps. I will recall all data and copy it to new<br>infrastructure.  Yes, that's the way I want<br>to do that. :)<br><br>-- <br>Pawel Dziekonski <pawel.dziekonski@wcss.pl>, </font></tt><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__www.wcss.pl&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=IbxtjdkPAM2Sbon4Lbbi4w&m=-wyO42O-5SDJQfYoGpqeObZNSlFzduC9mlXhsZb65HI&s=__3QSrBGRtG4Rja-QzbpqALX2o8l-67gtrqePi0NrfE&e="><tt><font size=2>https://urldefense.proofpoint.com/v2/url?u=http-3A__www.wcss.pl&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=IbxtjdkPAM2Sbon4Lbbi4w&m=-wyO42O-5SDJQfYoGpqeObZNSlFzduC9mlXhsZb65HI&s=__3QSrBGRtG4Rja-QzbpqALX2o8l-67gtrqePi0NrfE&e=</font></tt></a><tt><font size=2><br>Wroclaw Centre for Networking & Supercomputing, HPC Department<br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=IbxtjdkPAM2Sbon4Lbbi4w&m=-wyO42O-5SDJQfYoGpqeObZNSlFzduC9mlXhsZb65HI&s=32gAuk8HDIPkjMjY4L7DB1tFqmJxeaP4ZWIYA_Ya3ts&e="><tt><font size=2>https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=IbxtjdkPAM2Sbon4Lbbi4w&m=-wyO42O-5SDJQfYoGpqeObZNSlFzduC9mlXhsZb65HI&s=32gAuk8HDIPkjMjY4L7DB1tFqmJxeaP4ZWIYA_Ya3ts&e=</font></tt></a><tt><font size=2><br><br></font></tt><br><br><BR>