<p dir="ltr">I mean the person tried to configure it... didnt do good job so now its me to continue</p>
<div class="gmail_quote">On Jul 4, 2017 11:37, "IBM Spectrum Scale" <<a href="mailto:scale@us.ibm.com">scale@us.ibm.com</a>> wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><font size="2" face="sans-serif">What exactly do you mean by "</font><tt><font size="2">I
have received existing corrupted GPFS 4.2.2 lab</font></tt><font size="2" face="sans-serif">"?</font><br><font size="2" face="sans-serif">Is the file system corrupted ? Maybe
this error is then due to file system corruption.</font><br><br><font size="2" face="sans-serif">Can you once try: mmmount fs_gpfs01
-a</font><br><font size="2" face="sans-serif">If this does not work then try: mmmount
-o rs fs_gpfs01</font><br><br><font size="2" face="sans-serif">Let me know which mount is working.</font><br><br><font size="2" face="sans-serif">Regards, The Spectrum Scale (GPFS) team<br><br>------------------------------<wbr>------------------------------<wbr>------------------------------<wbr>------------------------<br>If you feel that your question can benefit other users of  Spectrum
Scale (GPFS), then please post it to the public IBM developerWroks Forum
at </font><a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479" target="_blank"><font size="2" face="sans-serif">https://www.ibm.com/<wbr>developerworks/community/<wbr>forums/html/forum?id=11111111-<wbr>0000-0000-0000-000000000479</font></a><font size="2" face="sans-serif">.
<br><br>If your query concerns a potential software error in Spectrum Scale (GPFS)
and you have an IBM software maintenance contract please contact  1-800-237-5511
in the United States or your local IBM Service Center in other countries.
<br><br>The forum is informally monitored as time permits and should not be used
for priority messages to the Spectrum Scale (GPFS) team.</font><br><br><br><br><font size="1" color="#5f5f5f" face="sans-serif">From:      
 </font><font size="1" face="sans-serif">Ilan Schwarts <<a href="mailto:ilan84@gmail.com" target="_blank">ilan84@gmail.com</a>></font><br><font size="1" color="#5f5f5f" face="sans-serif">To:      
 </font><font size="1" face="sans-serif"><a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank">gpfsug-discuss@spectrumscale.<wbr>org</a></font><br><font size="1" color="#5f5f5f" face="sans-serif">Date:      
 </font><font size="1" face="sans-serif">07/04/2017 01:47 PM</font><br><font size="1" color="#5f5f5f" face="sans-serif">Subject:    
   </font><font size="1" face="sans-serif">[gpfsug-discuss]
Fail to mount file system</font><br><font size="1" color="#5f5f5f" face="sans-serif">Sent by:    
   </font><font size="1" face="sans-serif"><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank">gpfsug-discuss-bounces@<wbr>spectrumscale.org</a></font><br><hr noshade><br><br><br><tt><font size="2">Hi everyone, I have received existing corrupted GPFS
4.2.2 lab and I<br>am trying to make it work.<br>There are 2 nodes in a cluster:<br>[root@LH20-GPFS1 ~]# mmgetstate -a<br><br> Node number  Node name        GPFS state<br>------------------------------<wbr>------------<br>       1      LH20-GPFS1      
active<br>       3      LH20-GPFS2      
active<br><br>The Cluster status is:<br>[root@LH20-GPFS1 ~]# mmlscluster<br><br>GPFS cluster information<br>========================<br>  GPFS cluster name:         MyCluster.LH20-GPFS2<br>  GPFS cluster id:           10777108240438931454<br>  GPFS UID domain:           MyCluster.LH20-GPFS2<br>  Remote shell command:      /usr/bin/ssh<br>  Remote file copy command:  /usr/bin/scp<br>  Repository type:           CCR<br><br> Node  Daemon node name  IP address    Admin node name
 Designation<br>------------------------------<wbr>------------------------------<wbr>--------<br>   1   LH20-GPFS1        10.10.158.61  LH20-GPFS1
      quorum-manager<br>   3   LH20-GPFS2        10.10.158.62  LH20-GPFS2<br><br>There is a file system:<br>[root@LH20-GPFS1 ~]# mmlsnsd<br><br> File system   Disk name    NSD servers<br>------------------------------<wbr>------------------------------<wbr>---------------<br> fs_gpfs01     nynsd1       (directly attached)<br> fs_gpfs01     nynsd2       (directly attached)<br><br>[root@LH20-GPFS1 ~]#<br><br>On each Node, There is folder /fs_gpfs01<br>The next step is to mount this fs_gpfs01 to be synced between the 2 nodes.<br>Whilte executing mmmount i get exception:<br>[root@LH20-GPFS1 ~]# mmmount /fs_gpfs01<br>Tue Jul  4 11:14:18 IDT 2017: mmmount: Mounting file systems ...<br>mount: mount fs_gpfs01 on /fs_gpfs01 failed: Wrong medium type<br>mmmount: Command failed. Examine previous error messages to determine cause.<br><br><br>What am i doing wrong ?<br>______________________________<wbr>_________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at <a href="http://spectrumscale.org" target="_blank">spectrumscale.org</a><br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank"><tt><font size="2">http://gpfsug.org/mailman/<wbr>listinfo/gpfsug-discuss</font></tt></a><tt><font size="2"><br><br></font></tt><br><br><br></blockquote></div>