<font size=2 face="sans-serif">You can refer to the concepts, planning
and installation guide at the link (</font><a href=https://www.ibm.com/support/knowledgecenter/STXKQY_4.2.2/com.ibm.spectrum.scale.v4r22.doc/bl1xx_library_prodoc.htm><font size=2 color=blue face="sans-serif">https://www.ibm.com/support/knowledgecenter/STXKQY_4.2.2/com.ibm.spectrum.scale.v4r22.doc/bl1xx_library_prodoc.htm</font></a><font size=2 face="sans-serif">)
for</font><br><font size=2 face="sans-serif">finding detailed steps on setting up
a cluster or creating a file system. Or open a PMR and work with IBM support
to set it up.</font><br><br><font size=2 face="sans-serif">In your case (just as an example) you
can use the below simple steps to delete and recreate the file system:</font><br><font size=2 face="sans-serif">1) To delete file system and NSDs:</font><br><font size=2 face="sans-serif"> a) Unmount file system - mmumount
<fs> -a</font><br><font size=2 face="sans-serif"> b) Delete file system  -
mmdelfs <fs></font><br><font size=2 face="sans-serif"> c) Delete NSDs  - mmdelnsd
"</font><tt><font size=2>nynsd1</font></tt><font size=2 face="sans-serif">;</font><tt><font size=2>nynsd2</font></tt><font size=2 face="sans-serif">"</font><br><br><font size=2 face="sans-serif">2) To create file system with both disks
in one system pool and having dataAndMetadata and data and metadata replica
and directly attached to the nodes, you can use following steps:</font><br><font size=2 face="sans-serif"> a) Create a /tmp/nsd file and
fill it up with below information</font><br><font size=2 face="sans-serif">    <Disk name>:::dataAndMetadata:1:nynsd1:system</font><br><font size=2 face="sans-serif">    <Disk name>:::dataAndMetadata:2:nynsd2:system</font><br><font size=2 face="sans-serif"> b) Use mmcrnsd -F /tmp/nsd to
create NSDs</font><br><font size=2 face="sans-serif"> c) Create file system using (just
an example with assumptions on config) - mmcrfs /dev/fs_gpfs01 -F /tmp/nsd
-A yes -B 256K -n 32 -m 2 -r 2 -T /fs_gpfs01</font><br><br><font size=2 face="sans-serif">You can refer to above guide for configuring
it in other ways as you want. If you have any issues with these steps you
can raise PMR and follow proper channel to setup file system as well.</font><br><br><font size=2 face="sans-serif">Regards, The Spectrum Scale (GPFS) team<br><br>------------------------------------------------------------------------------------------------------------------<br>If you feel that your question can benefit other users of  Spectrum
Scale (GPFS), then please post it to the public IBM developerWroks Forum
at </font><a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479"><font size=2 face="sans-serif">https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479</font></a><font size=2 face="sans-serif">.
<br><br>If your query concerns a potential software error in Spectrum Scale (GPFS)
and you have an IBM software maintenance contract please contact  1-800-237-5511
in the United States or your local IBM Service Center in other countries.
<br><br>The forum is informally monitored as time permits and should not be used
for priority messages to the Spectrum Scale (GPFS) team.</font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">Ilan Schwarts <ilan84@gmail.com></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">IBM Spectrum Scale
<scale@us.ibm.com></font><br><font size=1 color=#5f5f5f face="sans-serif">Cc:      
 </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org,
gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">07/04/2017 10:16 PM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">Re: [gpfsug-discuss]
Fail to mount file system</font><br><hr noshade><br><br><br><font size=3>Yes I am ok with deleting. I follow a guide from john
olsen at the ibm team from tuscon.. but the guide had steps after the gpfs
setup... Is there step by step guide for gpfs cluster setup other than
the one in the ibm site? Thank</font><br><font size=2 face="sans-serif">My bad gave the wrong command, the right
one is: mmmount </font><tt><font size=2>fs_gpfs01</font></tt><font size=2 face="sans-serif">-o
rs</font><font size=3><br></font><font size=2 face="sans-serif"><br>Also can you send output of mmlsnsd -X, need to check device type of the
NSDs.</font><font size=3><br></font><font size=2 face="sans-serif"><br>Are you ok with deleting the file system and disks and building everything
from scratch?</font><font size=3><br><br></font><font size=2 face="sans-serif"><br>Regards, The Spectrum Scale (GPFS) team<br><br>------------------------------------------------------------------------------------------------------------------<br>If you feel that your question can benefit other users of  Spectrum
Scale (GPFS), then please post it to the public IBM developerWroks Forum
at </font><a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479" target=_blank><font size=2 color=blue face="sans-serif"><u>https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479</u></font></a><font size=2 face="sans-serif">.
<br><br>If your query concerns a potential software error in Spectrum Scale (GPFS)
and you have an IBM software maintenance contract please contact  1-800-237-5511
in the United States or your local IBM Service Center in other countries.
<br><br>The forum is informally monitored as time permits and should not be used
for priority messages to the Spectrum Scale (GPFS) team.</font><font size=3><br><br><br></font><font size=1 color=#5f5f5f face="sans-serif"><br>From:        </font><font size=1 face="sans-serif">Ilan
Schwarts <</font><a href=mailto:ilan84@gmail.com target=_blank><font size=1 color=blue face="sans-serif"><u>ilan84@gmail.com</u></font></a><font size=1 face="sans-serif">></font><font size=1 color=#5f5f5f face="sans-serif"><br>To:        </font><font size=1 face="sans-serif">IBM
Spectrum Scale <</font><a href=mailto:scale@us.ibm.com target=_blank><font size=1 color=blue face="sans-serif"><u>scale@us.ibm.com</u></font></a><font size=1 face="sans-serif">></font><font size=1 color=#5f5f5f face="sans-serif"><br>Cc:        </font><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target=_blank><font size=1 color=blue face="sans-serif"><u>gpfsug-discuss-bounces@spectrumscale.org</u></font></a><font size=1 face="sans-serif">,
gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@spectrumscale.org" target=_blank><font size=1 color=blue face="sans-serif"><u>gpfsug-discuss@spectrumscale.org</u></font></a><font size=1 face="sans-serif">></font><font size=1 color=#5f5f5f face="sans-serif"><br>Date:        </font><font size=1 face="sans-serif">07/04/2017
04:26 PM</font><font size=1 color=#5f5f5f face="sans-serif"><br>Subject:        </font><font size=1 face="sans-serif">Re:
[gpfsug-discuss] Fail to mount file system</font><font size=3><br></font><hr noshade><font size=3><br><br></font><tt><font size=2><br>[root@LH20-GPFS1 ~]# mmmount fs_gpfs01 -a<br>Tue Jul  4 13:52:07 IDT 2017: mmmount: Mounting file systems ...<br>LH20-GPFS1:  mount: mount fs_gpfs01 on /fs_gpfs01 failed: Wrong medium
type<br>mmdsh: LH20-GPFS1 remote shell process had return code 32.<br>LH20-GPFS2:  mount: mount fs_gpfs01 on /fs_gpfs01 failed: Stale file
handle<br>mmdsh: LH20-GPFS2 remote shell process had return code 32.<br>mmmount: Command failed. Examine previous error messages to determine cause.<br><br>[root@LH20-GPFS1 ~]# mmmount -o rs /fs_gpfs01<br>mmmount: Mount point can not be a relative path name: rs<br>[root@LH20-GPFS1 ~]# mmmount -o rs fs_gpfs01<br>mmmount: Mount point can not be a relative path name: rs<br><br><br><br>I recieve in "dmesg":<br><br>[   18.338044] sd 2:0:0:1: [sdc] Attached SCSI disk<br>[  141.363422] hvt_cn_callback: unexpected netlink message!<br>[  141.366153] hvt_cn_callback: unexpected netlink message!<br>[ 4479.292850] tracedev: loading out-of-tree module taints kernel.<br>[ 4479.292888] tracedev: module verification failed: signature and/or<br>required key missing - tainting kernel<br>[ 4482.928413] ------------[ cut here ]------------<br>[ 4482.928445] WARNING: at fs/xfs/xfs_aops.c:906<br>xfs_do_writepage+0x537/0x550 [xfs]()<br>[ 4482.928446] Modules linked in: mmfs26(OE) mmfslinux(OE)<br>tracedev(OE) iscsi_tcp libiscsi_tcp libiscsi scsi_transport_iscsi ext4<br>mbcache jbd2 loop intel_powerclamp iosf_mbi sg pcspkr hv_utils<br>i2c_piix4 i2c_core nfsd auth_rpcgss nfs_acl lockd grace sunrpc<br>binfmt_misc ip_tables xfs libcrc32c sd_mod crc_t10dif<br>crct10dif_generic crct10dif_common ata_generic pata_acpi hv_netvsc<br>hyperv_keyboard hid_hyperv hv_storvsc hyperv_fb serio_raw fjes floppy<br>libata hv_vmbus dm_mirror dm_region_hash dm_log dm_mod<br>[ 4482.928471] CPU: 1 PID: 15210 Comm: mmfsd Tainted: G      
    OE<br>------------   3.10.0-514.21.2.el7.x86_64 #1<br><br>On Tue, Jul 4, 2017 at 11:36 AM, IBM Spectrum Scale <</font></tt><a href=mailto:scale@us.ibm.com target=_blank><tt><font size=2 color=blue><u>scale@us.ibm.com</u></font></tt></a><tt><font size=2>>
wrote:<br>> What exactly do you mean by "I have received existing corrupted
GPFS 4.2.2<br>> lab"?<br>> Is the file system corrupted ? Maybe this error is then due to file
system<br>> corruption.<br>><br>> Can you once try: mmmount fs_gpfs01 -a<br>> If this does not work then try: mmmount -o rs fs_gpfs01<br>><br>> Let me know which mount is working.<br>><br>> Regards, The Spectrum Scale (GPFS) team<br>><br>> ------------------------------------------------------------------------------------------------------------------<br>> If you feel that your question can benefit other users of  Spectrum
Scale<br>> (GPFS), then please post it to the public IBM developerWroks Forum
at<br>> </font></tt><a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479" target=_blank><tt><font size=2 color=blue><u>https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479</u></font></tt></a><tt><font size=2>.<br>><br>> If your query concerns a potential software error in Spectrum Scale
(GPFS)<br>> and you have an IBM software maintenance contract please contact<br>> 1-800-237-5511 in the United States or your local IBM Service Center
in<br>> other countries.<br>><br>> The forum is informally monitored as time permits and should not be
used for<br>> priority messages to the Spectrum Scale (GPFS) team.<br>><br>><br>><br>> From:        Ilan Schwarts <</font></tt><a href=mailto:ilan84@gmail.com target=_blank><tt><font size=2 color=blue><u>ilan84@gmail.com</u></font></tt></a><tt><font size=2>><br>> To:        </font></tt><a href="mailto:gpfsug-discuss@spectrumscale.org" target=_blank><tt><font size=2 color=blue><u>gpfsug-discuss@spectrumscale.org</u></font></tt></a><tt><font size=2><br>> Date:        07/04/2017 01:47 PM<br>> Subject:        [gpfsug-discuss] Fail to mount
file system<br>> Sent by:        </font></tt><a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target=_blank><tt><font size=2 color=blue><u>gpfsug-discuss-bounces@spectrumscale.org</u></font></tt></a><tt><font size=2><br>> ________________________________<br>><br>><br>><br>> Hi everyone, I have received existing corrupted GPFS 4.2.2 lab and
I<br>> am trying to make it work.<br>> There are 2 nodes in a cluster:<br>> [root@LH20-GPFS1 ~]# mmgetstate -a<br>><br>> Node number  Node name        GPFS state<br>> ------------------------------------------<br>>       1      LH20-GPFS1    
  active<br>>       3      LH20-GPFS2    
  active<br>><br>> The Cluster status is:<br>> [root@LH20-GPFS1 ~]# mmlscluster<br>><br>> GPFS cluster information<br>> ========================<br>>  GPFS cluster name:         MyCluster.LH20-GPFS2<br>>  GPFS cluster id:           10777108240438931454<br>>  GPFS UID domain:           MyCluster.LH20-GPFS2<br>>  Remote shell command:      /usr/bin/ssh<br>>  Remote file copy command:  /usr/bin/scp<br>>  Repository type:           CCR<br>><br>> Node  Daemon node name  IP address    Admin node
name  Designation<br>> --------------------------------------------------------------------<br>>   1   LH20-GPFS1        10.10.158.61
 LH20-GPFS1       quorum-manager<br>>   3   LH20-GPFS2        10.10.158.62
 LH20-GPFS2<br>><br>> There is a file system:<br>> [root@LH20-GPFS1 ~]# mmlsnsd<br>><br>> File system   Disk name    NSD servers<br>> ---------------------------------------------------------------------------<br>> fs_gpfs01     nynsd1       (directly attached)<br>> fs_gpfs01     nynsd2       (directly attached)<br>><br>> [root@LH20-GPFS1 ~]#<br>><br>> On each Node, There is folder /fs_gpfs01<br>> The next step is to mount this fs_gpfs01 to be synced between the
2 nodes.<br>> Whilte executing mmmount i get exception:<br>> [root@LH20-GPFS1 ~]# mmmount /fs_gpfs01<br>> Tue Jul  4 11:14:18 IDT 2017: mmmount: Mounting file systems
...<br>> mount: mount fs_gpfs01 on /fs_gpfs01 failed: Wrong medium type<br>> mmmount: Command failed. Examine previous error messages to determine
cause.<br>><br>><br>> What am i doing wrong ?<br>> _______________________________________________<br>> gpfsug-discuss mailing list<br>> gpfsug-discuss at </font></tt><a href=http://spectrumscale.org/ target=_blank><tt><font size=2 color=blue><u>spectrumscale.org</u></font></tt></a><tt><font size=2><br>> </font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target=_blank><tt><font size=2 color=blue><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></tt></a><tt><font size=2><br>><br>><br>><br>><br><br><br><br>-- <br><br><br>-<br>Ilan Schwarts<br></font></tt><font size=3><br><br><br></font><br><br><BR>