<font size=2 face="sans-serif">Hi,</font>
<br>
<br><font size=2 face="sans-serif">i was asking for the content, not the
result :-)</font>
<br>
<br><font size=2 face="sans-serif">can you run </font><font size=2 color=#004080>cat
/var/mmfs/etc/nsddevices</font>
<br>
<br><font size=2 face="sans-serif">the 2nd output confirms at least that
there is no correct label on the disk, as it returns EFI </font>
<br>
<br><font size=2 face="sans-serif">on a GNR system you get a few more infos
, but at least you should see the NSD descriptor string like i get on my
system : </font>
<br>
<br>
<br><font size=2 face="sans-serif">[root@gss02n1 ~]# dd if=/dev/sdaa bs=1k
count=32 | strings</font>
<br><font size=2 face="sans-serif">T7$V</font>
<br><font size=2 face="sans-serif">e2d2s08</font>
<br><font size=2 face="sans-serif"><b><u>NSD descriptor for /dev/sdde created
by GPFS Thu Oct  9 16:48:27 2014</u></b></font>
<br><font size=2 face="sans-serif">32+0 records in</font>
<br><font size=2 face="sans-serif">32+0 records out</font>
<br><font size=2 face="sans-serif">32768 bytes (33 kB) copied, 0.0186765
s, 1.8 MB/s</font>
<br>
<br><font size=2 face="sans-serif">while i still would like to see the
nsddevices script i assume your NSD descriptor is wiped and without a lot
of manual labor and at least a recent GPFS dump this is very hard if at
all to recreate.</font>
<br>
<br>
<br><font size=2 face="sans-serif">------------------------------------------<br>
Sven Oehme <br>
Scalable Storage Research <br>
email: oehmes@us.ibm.com <br>
Phone: +1 (408) 824-8904 <br>
IBM Almaden Research Lab <br>
------------------------------------------</font>
<br>
<br>
<br>
<br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">Jared David Baker <Jared.Baker@uwyo.edu></font>
<br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">gpfsug main discussion
list <gpfsug-discuss@gpfsug.org></font>
<br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">10/29/2014 12:46 PM</font>
<br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">Re: [gpfsug-discuss]
Server lost NSD mappings</font>
<br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@gpfsug.org</font>
<br>
<hr noshade>
<br>
<br>
<br><font size=2 color=#004080>Sven, output below:</font>
<br><font size=2 color=#004080> </font>
<br><font size=2 color=#004080>--</font>
<br><font size=2 color=#004080>[root@mmmnsd5 ~]# /var/mmfs/etc/nsddevices</font>
<br><font size=2 color=#004080>mapper/dcs3800u31a_lun0 dmm</font>
<br><font size=2 color=#004080>mapper/dcs3800u31a_lun10 dmm</font>
<br><font size=2 color=#004080>mapper/dcs3800u31a_lun2 dmm</font>
<br><font size=2 color=#004080>mapper/dcs3800u31a_lun4 dmm</font>
<br><font size=2 color=#004080>mapper/dcs3800u31a_lun6 dmm</font>
<br><font size=2 color=#004080>mapper/dcs3800u31a_lun8 dmm</font>
<br><font size=2 color=#004080>mapper/dcs3800u31b_lun1 dmm</font>
<br><font size=2 color=#004080>mapper/dcs3800u31b_lun11 dmm</font>
<br><font size=2 color=#004080>mapper/dcs3800u31b_lun3 dmm</font>
<br><font size=2 color=#004080>mapper/dcs3800u31b_lun5 dmm</font>
<br><font size=2 color=#004080>mapper/dcs3800u31b_lun7 dmm</font>
<br><font size=2 color=#004080>mapper/dcs3800u31b_lun9 dmm</font>
<br><font size=2 color=#004080>[root@mmmnsd5 ~]#</font>
<br><font size=2 color=#004080>--</font>
<br><font size=2 color=#004080>--</font>
<br><font size=2 color=#004080>[root@mmmnsd5 /]# dd if=/dev/dm-0 bs=1k
count=32 | strings</font>
<br><font size=2 color=#004080>32+0 records in</font>
<br><font size=2 color=#004080>32+0 records out</font>
<br><font size=2 color=#004080>32768 bytes (33 kB) copied, 0.000739083
s, 44.3 MB/s</font>
<br><font size=2 color=#004080>EFI PART</font>
<br><font size=2 color=#004080>system</font>
<br><font size=2 color=#004080>[root@mmmnsd5 /]#</font>
<br><font size=2 color=#004080>--</font>
<br><font size=2 color=#004080> </font>
<br><font size=2 color=#004080>Thanks, Jared</font>
<br><font size=2 color=#004080> </font>
<br><font size=2 face="Tahoma"><b>From:</b> gpfsug-discuss-bounces@gpfsug.org
[</font><a href="mailto:gpfsug-discuss-bounces@gpfsug.org"><font size=2 face="Tahoma">mailto:gpfsug-discuss-bounces@gpfsug.org</font></a><font size=2 face="Tahoma">]
<b>On Behalf Of </b>Sven Oehme<b><br>
Sent:</b> Wednesday, October 29, 2014 1:41 PM<b><br>
To:</b> gpfsug main discussion list<b><br>
Subject:</b> Re: [gpfsug-discuss] Server lost NSD mappings</font>
<br><font size=3 face="Times New Roman"> </font>
<br><font size=2 face="Arial">can you please post the content of your nsddevices
script ? </font><font size=3 face="Times New Roman"><br>
</font><font size=2 face="Arial"><br>
also please run  </font><font size=3 face="Times New Roman"> <br>
</font><font size=2 face="Arial"><br>
dd if=/dev/dm-0 bs=1k count=32 |strings</font><font size=3 face="Times New Roman">
<br>
</font><font size=2 face="Arial"><br>
and post the output</font><font size=3 face="Times New Roman"> <br>
</font><font size=2 face="Arial"><br>
thx. Sven</font><font size=3 face="Times New Roman"> <br>
<br>
</font><font size=2 face="Arial"><br>
------------------------------------------<br>
Sven Oehme <br>
Scalable Storage Research <br>
email: </font><a href=mailto:oehmes@us.ibm.com><font size=2 color=blue face="Arial"><u>oehmes@us.ibm.com</u></font></a><font size=2 face="Arial">
<br>
Phone: +1 (408) 824-8904 <br>
IBM Almaden Research Lab <br>
------------------------------------------</font><font size=3 face="Times New Roman">
<br>
<br>
<br>
</font><font size=1 color=#5f5f5f face="Arial"><br>
From:        </font><font size=1 face="Arial">Jared
David Baker <</font><a href=mailto:Jared.Baker@uwyo.edu><font size=1 color=blue face="Arial"><u>Jared.Baker@uwyo.edu</u></font></a><font size=1 face="Arial">></font><font size=3 face="Times New Roman">
</font><font size=1 color=#5f5f5f face="Arial"><br>
To:        </font><font size=1 face="Arial">gpfsug
main discussion list <</font><a href="mailto:gpfsug-discuss@gpfsug.org"><font size=1 color=blue face="Arial"><u>gpfsug-discuss@gpfsug.org</u></font></a><font size=1 face="Arial">></font><font size=3 face="Times New Roman">
</font><font size=1 color=#5f5f5f face="Arial"><br>
Date:        </font><font size=1 face="Arial">10/29/2014
12:27 PM</font><font size=3 face="Times New Roman"> </font><font size=1 color=#5f5f5f face="Arial"><br>
Subject:        </font><font size=1 face="Arial">Re:
[gpfsug-discuss] Server lost NSD mappings</font><font size=3 face="Times New Roman">
</font><font size=1 color=#5f5f5f face="Arial"><br>
Sent by:        </font><a href="mailto:gpfsug-discuss-bounces@gpfsug.org"><font size=1 color=blue face="Arial"><u>gpfsug-discuss-bounces@gpfsug.org</u></font></a><font size=3 face="Times New Roman">
</font>
<div align=center>
<hr noshade></div>
<br><font size=3 face="Times New Roman"><br>
<br>
</font><font size=2 face="Courier New"><br>
Thanks Ed,<br>
<br>
I can see the multipath devices inside the OS after reboot. The storage
is all SAS attached. Two servers which can see the multipath LUNS for failover,
then export the gpfs filesystem to the compute cluster.<br>
<br>
--<br>
[root@mmmnsd5 ~]# multipath -l<br>
dcs3800u31a_lun8 (360080e500029600c000001e953cf8291) dm-4 IBM,1813  
   FAStT<br>
size=29T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1
rdac' wp=rw<br>
|-+- policy='round-robin 0' prio=0 status=active<br>
| `- 0:0:0:8  sdi 8:128  active undef running<br>
`-+- policy='round-robin 0' prio=0 status=enabled<br>
 `- 0:0:1:8  sdu 65:64  active undef running<br>
dcs3800u31b_lun9 (360080e5000295c68000001c253cf8221) dm-9 IBM,1813  
   FAStT<br>
size=29T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1
rdac' wp=rw<br>
|-+- policy='round-robin 0' prio=0 status=active<br>
| `- 0:0:1:9  sdv 65:80  active undef running<br>
`-+- policy='round-robin 0' prio=0 status=enabled<br>
 `- 0:0:0:9  sdj 8:144  active undef running<br>
dcs3800u31a_lun6 (360080e500029600c000001e653cf8210) dm-3 IBM,1813  
   FAStT<br>
size=29T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1
rdac' wp=rw<br>
|-+- policy='round-robin 0' prio=0 status=active<br>
| `- 0:0:0:6  sdg 8:96   active undef running<br>
`-+- policy='round-robin 0' prio=0 status=enabled<br>
 `- 0:0:1:6  sds 65:32  active undef running<br>
mpathm (3600605b007ca57d01b1b8a7a1a107bdd) dm-12 IBM,ServeRAID M1115<br>
size=558G features='0' hwhandler='0' wp=rw<br>
`-+- policy='round-robin 0' prio=0 status=active<br>
 `- 1:2:0:0  sdy 65:128 active undef running<br>
dcs3800u31b_lun7 (360080e5000295c68000001bd53cf81a9) dm-8 IBM,1813  
   FAStT<br>
size=29T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1
rdac' wp=rw<br>
|-+- policy='round-robin 0' prio=0 status=active<br>
| `- 0:0:1:7  sdt 65:48  active undef running<br>
`-+- policy='round-robin 0' prio=0 status=enabled<br>
 `- 0:0:0:7  sdh 8:112  active undef running<br>
dcs3800u31a_lun10 (360080e500029600c000001ec53cf8301) dm-5 IBM,1813  
   FAStT<br>
size=29T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1
rdac' wp=rw<br>
|-+- policy='round-robin 0' prio=0 status=active<br>
| `- 0:0:0:10 sdk 8:160  active undef running<br>
`-+- policy='round-robin 0' prio=0 status=enabled<br>
 `- 0:0:1:10 sdw 65:96  active undef running<br>
dcs3800u31a_lun4 (360080e500029600c000001e353cf8189) dm-1 IBM,1813  
   FAStT<br>
size=29T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1
rdac' wp=rw<br>
|-+- policy='round-robin 0' prio=0 status=active<br>
| `- 0:0:0:4  sde 8:64   active undef running<br>
`-+- policy='round-robin 0' prio=0 status=enabled<br>
 `- 0:0:1:4  sdq 65:0   active undef running<br>
dcs3800u31b_lun5 (360080e5000295c68000001b853cf8125) dm-10 IBM,1813  
   FAStT<br>
size=29T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1
rdac' wp=rw<br>
|-+- policy='round-robin 0' prio=0 status=active<br>
| `- 0:0:1:5  sdr 65:16  active undef running<br>
`-+- policy='round-robin 0' prio=0 status=enabled<br>
 `- 0:0:0:5  sdf 8:80   active undef running<br>
dcs3800u31a_lun2 (360080e500029600c000001e053cf80f9) dm-2 IBM,1813  
   FAStT<br>
size=29T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1
rdac' wp=rw<br>
|-+- policy='round-robin 0' prio=0 status=active<br>
| `- 0:0:0:2  sdc 8:32   active undef running<br>
`-+- policy='round-robin 0' prio=0 status=enabled<br>
 `- 0:0:1:2  sdo 8:224  active undef running<br>
dcs3800u31b_lun11 (360080e5000295c68000001c753cf828e) dm-11 IBM,1813  
   FAStT<br>
size=29T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1
rdac' wp=rw<br>
|-+- policy='round-robin 0' prio=0 status=active<br>
| `- 0:0:1:11 sdx 65:112 active undef running<br>
`-+- policy='round-robin 0' prio=0 status=enabled<br>
 `- 0:0:0:11 sdl 8:176  active undef running<br>
dcs3800u31b_lun3 (360080e5000295c68000001b353cf8097) dm-6 IBM,1813  
   FAStT<br>
size=29T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1
rdac' wp=rw<br>
|-+- policy='round-robin 0' prio=0 status=active<br>
| `- 0:0:1:3  sdp 8:240  active undef running<br>
`-+- policy='round-robin 0' prio=0 status=enabled<br>
 `- 0:0:0:3  sdd 8:48   active undef running<br>
dcs3800u31a_lun0 (360080e500029600c000001da53cf7ec1) dm-0 IBM,1813  
   FAStT<br>
size=29T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1
rdac' wp=rw<br>
|-+- policy='round-robin 0' prio=0 status=active<br>
| `- 0:0:0:0  sda 8:0    active undef running<br>
`-+- policy='round-robin 0' prio=0 status=enabled<br>
 `- 0:0:1:0  sdm 8:192  active undef running<br>
dcs3800u31b_lun1 (360080e5000295c68000001ac53cf7e8d) dm-7 IBM,1813  
   FAStT<br>
size=29T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1
rdac' wp=rw<br>
|-+- policy='round-robin 0' prio=0 status=active<br>
| `- 0:0:1:1  sdn 8:208  active undef running<br>
`-+- policy='round-robin 0' prio=0 status=enabled<br>
 `- 0:0:0:1  sdb 8:16   active undef running<br>
[root@mmmnsd5 ~]#<br>
--<br>
<br>
--<br>
[root@mmmnsd5 ~]# cat /proc/partitions<br>
major minor  #blocks  name<br>
<br>
  8       48 31251951616 sdd<br>
  8       32 31251951616 sdc<br>
  8       80 31251951616 sdf<br>
  8       16 31251951616 sdb<br>
  8      128 31251951616 sdi<br>
  8      112 31251951616 sdh<br>
  8       96 31251951616 sdg<br>
  8      192 31251951616 sdm<br>
  8      240 31251951616 sdp<br>
  8      208 31251951616 sdn<br>
  8      144 31251951616 sdj<br>
  8       64 31251951616 sde<br>
  8      224 31251951616 sdo<br>
  8      160 31251951616 sdk<br>
  8      176 31251951616 sdl<br>
 65        0 31251951616 sdq<br>
 65       48 31251951616 sdt<br>
 65       16 31251951616 sdr<br>
 65      128  584960000 sdy<br>
 65       80 31251951616 sdv<br>
 65       96 31251951616 sdw<br>
 65       64 31251951616 sdu<br>
 65      112 31251951616 sdx<br>
 65       32 31251951616 sds<br>
  8        0 31251951616 sda<br>
253        0 31251951616 dm-0<br>
253        1 31251951616 dm-1<br>
253        2 31251951616 dm-2<br>
253        3 31251951616 dm-3<br>
253        4 31251951616 dm-4<br>
253        5 31251951616 dm-5<br>
253        6 31251951616 dm-6<br>
253        7 31251951616 dm-7<br>
253        8 31251951616 dm-8<br>
253        9 31251951616 dm-9<br>
253       10 31251951616 dm-10<br>
253       11 31251951616 dm-11<br>
253       12  584960000 dm-12<br>
253       13     524288 dm-13<br>
253       14   16777216 dm-14<br>
253       15  567657472 dm-15<br>
[root@mmmnsd5 ~]#<br>
--<br>
<br>
The NSDs had no failure group defined on creation.<br>
<br>
Regards,<br>
<br>
Jared<br>
<br>
<br>
<br>
<br>
-----Original Message-----<br>
From: </font><a href="mailto:gpfsug-discuss-bounces@gpfsug.org"><font size=2 color=blue face="Courier New"><u>gpfsug-discuss-bounces@gpfsug.org</u></font></a><font size=2 face="Courier New">
[</font><a href="mailto:gpfsug-discuss-bounces@gpfsug.org"><font size=2 color=blue face="Courier New"><u>mailto:gpfsug-discuss-bounces@gpfsug.org</u></font></a><font size=2 face="Courier New">]
On Behalf Of Ed Wahl<br>
Sent: Wednesday, October 29, 2014 1:08 PM<br>
To: gpfsug main discussion list<br>
Subject: Re: [gpfsug-discuss] Server lost NSD mappings<br>
<br>
 Can you see the block devices from inside the OS after the reboot?  I
don't see where you mention this.  How is the storage attached to
the server?  As a DCS37|800 can be FC/SAS/IB which is yours? Do the
nodes share the storage?  All nsds in same failure group?    
I was quickly brought to mind of a failed SRP_DAEMON lookup to IB storage
from a badly updated IB card but I would hope you'd notice the lack of
block devices.<br>
<br>
<br>
cat /proc/partitions ?<br>
multipath -l ?<br>
<br>
<br>
Our GPFS changes device mapper multipath names all the time (dm-127 one
day, dm-something else another), so that is no problem.  But wacking
the volume label is a pain.  <br>
When hardware dies if you have nsds sharing the same LUNs you can just
transfer  /var/mmfs/gen/mmsdrfs from another node and Bob's your uncle.<br>
<br>
Ed Wahl<br>
OSC<br>
<br>
<br>
________________________________________<br>
From: </font><a href="mailto:gpfsug-discuss-bounces@gpfsug.org"><font size=2 color=blue face="Courier New"><u>gpfsug-discuss-bounces@gpfsug.org</u></font></a><font size=2 face="Courier New">
[gpfsug-discuss-bounces@gpfsug.org] on behalf of Jared David Baker [Jared.Baker@uwyo.edu]<br>
Sent: Wednesday, October 29, 2014 11:31 AM<br>
To: </font><a href="mailto:gpfsug-discuss@gpfsug.org"><font size=2 color=blue face="Courier New"><u>gpfsug-discuss@gpfsug.org</u></font></a><font size=2 face="Courier New"><br>
Subject: [gpfsug-discuss] Server lost NSD mappings<br>
<br>
Hello all,<br>
<br>
I'm hoping that somebody can shed some light on a problem that I experienced
yesterday. I've been working with GPFS for a couple months as an admin
now, but I've come across a problem that I'm unable to see the answer to.
Hopefully the solution is not listed somewhere blatantly on the web, but
I spent a fair amount of time looking last night. Here is the situation:
yesterday, I needed to update some firmware on a Mellanox HCA FDR14 card
and reboot one of our GPFS servers and repeat for the sister node (IBM
x3550 and DCS3850) as HPSS for our main campus cluster. However, upon reboot,
the server seemed to lose the path mappings to the multipath devices for
the NSDs. Output below:<br>
<br>
--<br>
[root@mmmnsd5 ~]# mmlsnsd -m -f gscratch<br>
<br>
Disk name    NSD volume ID      Device  
      Node name            
   Remarks<br>
---------------------------------------------------------------------------------------<br>
dcs3800u31a_lun0 0A62001B54235577   -        
     mminsd5.infini           (not
found) server node<br>
dcs3800u31a_lun0 0A62001B54235577   -        
     mminsd6.infini           (not
found) server node<br>
dcs3800u31a_lun10 0A62001C542355AA   -        
     mminsd6.infini           (not
found) server node<br>
dcs3800u31a_lun10 0A62001C542355AA   -        
     mminsd5.infini           (not
found) server node<br>
dcs3800u31a_lun2 0A62001C54235581   -        
     mminsd6.infini           (not
found) server node<br>
dcs3800u31a_lun2 0A62001C54235581   -        
     mminsd5.infini           (not
found) server node<br>
dcs3800u31a_lun4 0A62001B5423558B   -        
     mminsd5.infini           (not
found) server node<br>
dcs3800u31a_lun4 0A62001B5423558B   -        
     mminsd6.infini           (not
found) server node<br>
dcs3800u31a_lun6 0A62001C54235595   -        
     mminsd6.infini           (not
found) server node<br>
dcs3800u31a_lun6 0A62001C54235595   -        
     mminsd5.infini           (not
found) server node<br>
dcs3800u31a_lun8 0A62001B5423559F   -        
     mminsd5.infini           (not
found) server node<br>
dcs3800u31a_lun8 0A62001B5423559F   -        
     mminsd6.infini           (not
found) server node<br>
dcs3800u31b_lun1 0A62001B5423557C   -        
     mminsd5.infini           (not
found) server node<br>
dcs3800u31b_lun1 0A62001B5423557C   -        
     mminsd6.infini           (not
found) server node<br>
dcs3800u31b_lun11 0A62001C542355AF   -        
     mminsd6.infini           (not
found) server node<br>
dcs3800u31b_lun11 0A62001C542355AF   -        
     mminsd5.infini           (not
found) server node<br>
dcs3800u31b_lun3 0A62001C54235586   -        
     mminsd6.infini           (not
found) server node<br>
dcs3800u31b_lun3 0A62001C54235586   -        
     mminsd5.infini           (not
found) server node<br>
dcs3800u31b_lun5 0A62001B54235590   -        
     mminsd5.infini           (not
found) server node<br>
dcs3800u31b_lun5 0A62001B54235590   -        
     mminsd6.infini           (not
found) server node<br>
dcs3800u31b_lun7 0A62001C5423559A   -        
     mminsd6.infini           (not
found) server node<br>
dcs3800u31b_lun7 0A62001C5423559A   -        
     mminsd5.infini           (not
found) server node<br>
dcs3800u31b_lun9 0A62001B542355A4   -        
     mminsd5.infini           (not
found) server node<br>
dcs3800u31b_lun9 0A62001B542355A4   -        
     mminsd6.infini           (not
found) server node<br>
<br>
[root@mmmnsd5 ~]#<br>
--<br>
<br>
Also, the system was working fantastically before the reboot, but now I'm
unable to mount the GPFS filesystem. The disk names look like they are
there and mapped to the NSD volume ID, but there is no Device. I've created
the /var/mmfs/etc/nsddevices script and it has the following output with
user return 0:<br>
<br>
--<br>
[root@mmmnsd5 ~]# /var/mmfs/etc/nsddevices<br>
mapper/dcs3800u31a_lun0 dmm<br>
mapper/dcs3800u31a_lun10 dmm<br>
mapper/dcs3800u31a_lun2 dmm<br>
mapper/dcs3800u31a_lun4 dmm<br>
mapper/dcs3800u31a_lun6 dmm<br>
mapper/dcs3800u31a_lun8 dmm<br>
mapper/dcs3800u31b_lun1 dmm<br>
mapper/dcs3800u31b_lun11 dmm<br>
mapper/dcs3800u31b_lun3 dmm<br>
mapper/dcs3800u31b_lun5 dmm<br>
mapper/dcs3800u31b_lun7 dmm<br>
mapper/dcs3800u31b_lun9 dmm<br>
[root@mmmnsd5 ~]#<br>
--<br>
<br>
That output looks correct to me based on the documentation. So I went digging
in the GPFS log file and found this relevant information:<br>
<br>
--<br>
Tue Oct 28 23:44:48.405 2014: I/O to NSD disk, dcs3800u31a_lun0, fails.
No such NSD locally found.<br>
Tue Oct 28 23:44:48.481 2014: I/O to NSD disk, dcs3800u31b_lun1, fails.
No such NSD locally found.<br>
Tue Oct 28 23:44:48.555 2014: I/O to NSD disk, dcs3800u31a_lun2, fails.
No such NSD locally found.<br>
Tue Oct 28 23:44:48.629 2014: I/O to NSD disk, dcs3800u31b_lun3, fails.
No such NSD locally found.<br>
Tue Oct 28 23:44:48.703 2014: I/O to NSD disk, dcs3800u31a_lun4, fails.
No such NSD locally found.<br>
Tue Oct 28 23:44:48.775 2014: I/O to NSD disk, dcs3800u31b_lun5, fails.
No such NSD locally found.<br>
Tue Oct 28 23:44:48.844 2014: I/O to NSD disk, dcs3800u31a_lun6, fails.
No such NSD locally found.<br>
Tue Oct 28 23:44:48.919 2014: I/O to NSD disk, dcs3800u31b_lun7, fails.
No such NSD locally found.<br>
Tue Oct 28 23:44:48.989 2014: I/O to NSD disk, dcs3800u31a_lun8, fails.
No such NSD locally found.<br>
Tue Oct 28 23:44:49.060 2014: I/O to NSD disk, dcs3800u31b_lun9, fails.
No such NSD locally found.<br>
Tue Oct 28 23:44:49.128 2014: I/O to NSD disk, dcs3800u31a_lun10, fails.
No such NSD locally found.<br>
Tue Oct 28 23:44:49.199 2014: I/O to NSD disk, dcs3800u31b_lun11, fails.
No such NSD locally found.<br>
--<br>
<br>
Okay, so the NSDs don't seem to be able to be found, so I attempt to rediscover
the NSD by executing the command mmnsddiscover:<br>
<br>
--<br>
[root@mmmnsd5 ~]# mmnsddiscover<br>
mmnsddiscover:  Attempting to rediscover the disks.  This may
take a while ...<br>
mmnsddiscover:  Finished.<br>
[root@mmmnsd5 ~]#<br>
--<br>
<br>
I was hoping that finished, but then upon restarting GPFS, there was no
success. Verifying with mmlsnsd -X -f gscratch<br>
<br>
--<br>
[root@mmmnsd5 ~]# mmlsnsd -X -f gscratch<br>
<br>
Disk name    NSD volume ID      Device  
      Devtype  Node name        
       Remarks<br>
---------------------------------------------------------------------------------------------------<br>
dcs3800u31a_lun0 0A62001B54235577   -        
     -        mminsd5.infini  
        (not found) server node<br>
dcs3800u31a_lun0 0A62001B54235577   -        
     -        mminsd6.infini  
        (not found) server node<br>
dcs3800u31a_lun10 0A62001C542355AA   -        
     -        mminsd6.infini  
        (not found) server node<br>
dcs3800u31a_lun10 0A62001C542355AA   -        
     -        mminsd5.infini  
        (not found) server node<br>
dcs3800u31a_lun2 0A62001C54235581   -        
     -        mminsd6.infini  
        (not found) server node<br>
dcs3800u31a_lun2 0A62001C54235581   -        
     -        mminsd5.infini  
        (not found) server node<br>
dcs3800u31a_lun4 0A62001B5423558B   -        
     -        mminsd5.infini  
        (not found) server node<br>
dcs3800u31a_lun4 0A62001B5423558B   -        
     -        mminsd6.infini  
        (not found) server node<br>
dcs3800u31a_lun6 0A62001C54235595   -        
     -        mminsd6.infini  
        (not found) server node<br>
dcs3800u31a_lun6 0A62001C54235595   -        
     -        mminsd5.infini  
        (not found) server node<br>
dcs3800u31a_lun8 0A62001B5423559F   -        
     -        mminsd5.infini  
        (not found) server node<br>
dcs3800u31a_lun8 0A62001B5423559F   -        
     -        mminsd6.infini  
        (not found) server node<br>
dcs3800u31b_lun1 0A62001B5423557C   -        
     -        mminsd5.infini  
        (not found) server node<br>
dcs3800u31b_lun1 0A62001B5423557C   -        
     -        mminsd6.infini  
        (not found) server node<br>
dcs3800u31b_lun11 0A62001C542355AF   -        
     -        mminsd6.infini  
        (not found) server node<br>
dcs3800u31b_lun11 0A62001C542355AF   -        
     -        mminsd5.infini  
        (not found) server node<br>
dcs3800u31b_lun3 0A62001C54235586   -        
     -        mminsd6.infini  
        (not found) server node<br>
dcs3800u31b_lun3 0A62001C54235586   -        
     -        mminsd5.infini  
        (not found) server node<br>
dcs3800u31b_lun5 0A62001B54235590   -        
     -        mminsd5.infini  
        (not found) server node<br>
dcs3800u31b_lun5 0A62001B54235590   -        
     -        mminsd6.infini  
        (not found) server node<br>
dcs3800u31b_lun7 0A62001C5423559A   -        
     -        mminsd6.infini  
        (not found) server node<br>
dcs3800u31b_lun7 0A62001C5423559A   -        
     -        mminsd5.infini  
        (not found) server node<br>
dcs3800u31b_lun9 0A62001B542355A4   -        
     -        mminsd5.infini  
        (not found) server node<br>
dcs3800u31b_lun9 0A62001B542355A4   -        
     -        mminsd6.infini  
        (not found) server node<br>
<br>
[root@mmmnsd5 ~]#<br>
--<br>
<br>
I'm wondering if somebody has seen this type of issue before? Will recreating
my NSDs destroy the filesystem? I'm thinking that all the data is intact,
but there is no crucial data on this file system yet, so I could recreate
the file system, but I would like to learn how to solve a problem like
this. Thanks for all help and information.<br>
<br>
Regards,<br>
<br>
Jared<br>
<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at gpfsug.org</font><font size=3 color=blue face="Times New Roman"><u><br>
</u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size=2 color=blue face="Courier New"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><font size=2 face="Courier New"><br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at gpfsug.org</font><font size=3 color=blue face="Times New Roman"><u><br>
</u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size=2 color=blue face="Courier New"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><font size=2 face="Courier New"><br>
</font><tt><font size=2>_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at gpfsug.org<br>
</font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br>
</font></tt>
<br>