<div dir="ltr">Hello!<div><br></div><div>I am an HPC admin at Weill Cornell Medicine in the Upper East Side of Manhattan.  It's a great place with researchers working in many computationally demanding fields.  I am asked to do many new things all of the time so it's never boring.  Yesterday we deployed a server that's intended to create atomic-level image of a ribosome.  Pretty serious science!<br><br></div><div>We have two DDN GridScaler GPFS clusters with around 3PB of storage.  FDR Infiniband provides the interconnect.  Our compute nodes are Dell PowerEdge 12/13G servers running Centos 6 and 7 while we're using SGE for scheduling.  Hopefully soon Slurm.  We also have some GPU servers from Pengiun Computing, with GTX 1080s, as well a new Ryft FPGA accelerator.  I am hoping our next round of computing power will come from AMD...</div><div><br></div><div>Anyway, I've been using Ansible to deploy our new GPFS nodes as well as build all other things we need at WCM.  I thought that this was complete.  However, apparently, the GPFS client's been trying RDMA over port mlx4_0/2 though we need to use mlx4_0/1!  Rather than running mmchconfig against the entire cluster, I have been trying it locally on the node that needs to be addressed.  For example:</div><div><br></div><div>sudo mmchconfig verbsPorts=mlx4_0/1 -i -N node155<br></div><div><br></div><div>When ran locally the desired change becomes permanent and we see RDMA active after restarting GPFS service on node.  Though mmchconfig still tries to run against all nodes in the cluster!  I kill it of course at the known_hosts step.</div><div><br></div><div>In addition I tried:</div><div><br></div><div>sudo mmchconfig verbsPorts=mlx4_0/1 -i -N node155 NodeClass=localhost<br></div><div><br></div><div>However the same result.</div><div><br></div><div>When doing capital "i" mmchconfig does attempt ssh with all nodes.  Yet the change does not persist after restarting GPFS.</div><div><br></div><div>So far I consulted the following documentation:</div><div><br></div><div><div><a href="http://ibm.co/2mcjK3P">http://ibm.co/2mcjK3P</a><br></div></div><div><a href="http://ibm.co/2lFSInH">http://ibm.co/2lFSInH</a><br></div><div><br></div><div>Could anyone please help?</div><div><br></div><div>We're using GPFS client version 4.1.1-3 on Centos 6 nodes as well as 4.2.1-2 on those which are running Centos 7.</div><div><br></div><div>Thanks so much!</div><div><br></div><div>Best</div><div>Doug</div><div><br></div><div><br></div><div><div><div class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div style="font-size:small"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr">Thanks,</div><div dir="ltr"><br>Douglas Duckworth, MSc, LFCS<br>HPC System Administrator<br><span style="font-size:12.8px">Scientific Computing Unit</span><br></div><div dir="ltr">Physiology and Biophysics</div><div dir="ltr">Weill Cornell Medicine<div>E: <a href="mailto:doug@med.cornell.edu" target="_blank">doug@med.cornell.edu</a><br>O: 212-746-6305<br>F: 212-746-8690</div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>
</div></div>