Dealt with a similar issue a couple of months ago.<div><br></div><div>In that case the data was fine but two of the descriptors were over written. You can use "<span style="background-color:rgb(249,249,249);font-family:monospace,Courier;font-size:13px;line-height:1.1em">mmfsadm test readdescraw /dev/$drive" to see the descriptors, we managed to recover the disk but only after logging it to IBM and manually rebuilding the descriptor. </span></div>

<div><font face="monospace, Courier"><span style="line-height:14.296875px"><br></span></font></div><div><font face="monospace, Courier"><span style="line-height:14.296875px">-CW<br></span></font><div><br><div class="gmail_quote">

On 13 February 2013 16:43, Jez Tucker <span dir="ltr"><<a href="mailto:Jez.Tucker@rushes.co.uk" target="_blank">Jez.Tucker@rushes.co.uk</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

So, er. Fun.<br>
<br>
I checked our disks.<br>
<div class="im"><br>
0000000 000000 000000 000000 000000 000000 000000 000000 000000<br>
*<br>
</div>0001000 <some data from hereon><br>
<br>
Looks like you lost a fair bit.<br>
<br>
<br>
Presumably you don't have replication of 2?<br>
If so, I think you could just lose the NSD.<br>
<br>
Failing that:<br>
<br>
1) Check your other disks and see if there's anything that you can figure out.  Though TBH, this may take forever.<br>
2) Restore<br>
3) Call IBM and log a SEV 1.<br>
<br>
3) then 2) is probably the best course of action<br>
<span class="HOEnZb"><font color="#888888"><br>
Jez<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
<br>
<br>
> -----Original Message-----<br>
> From: <a href="mailto:gpfsug-discuss-bounces@gpfsug.org">gpfsug-discuss-bounces@gpfsug.org</a> [mailto:<a href="mailto:gpfsug-discuss-">gpfsug-discuss-</a><br>
> <a href="mailto:bounces@gpfsug.org">bounces@gpfsug.org</a>] On Behalf Of Chad Kerner<br>
> Sent: 13 February 2013 16:29<br>
> To: <a href="mailto:gpfsug-discuss@gpfsug.org">gpfsug-discuss@gpfsug.org</a><br>
> Subject: [gpfsug-discuss] File system recovery question<br>
><br>
> I have a file system, and it appears that someone dd'd over the first<br>
> part of one of the NSD's with zero's.  I see the device in multipath. I<br>
> can fdisk and dd the device out.<br>
><br>
> Executing od shows it is zero's.<br>
> (! 21)-> od /dev/mapper/dh1_vd05_005 | head -n 5<br>
> 0000000 000000 000000 000000 000000 000000 000000 000000 000000<br>
> *<br>
> 0040000 120070 156006 120070 156006 120070 156006 120070 156006<br>
><br>
> Dumping the header of one of the other disks shows read data for<br>
> the other NSD's in that file system.<br>
><br>
> (! 25)-> mmlsnsd -m | grep dh1_vd05_005<br>
>  Disk name    NSD volume ID      Device         Node name<br>
> Remarks<br>
> ---------------------------------------------------------------------------------------<br>
>  dh1_vd05_005 8D8EEA98506C69CE   -              myhost (not found) server<br>
> node<br>
><br>
> (! 27)-> mmnsddiscover -d dh1_vd05_005<br>
> mmnsddiscover:  Attempting to rediscover the disks.  This may take a<br>
> while ...<br>
> myhost:  Rediscovery failed for dh1_vd05_005.<br>
> mmnsddiscover:  Finished.<br>
><br>
><br>
> Wed Feb 13 09:14:03.694 2013: Command: mount desarchive Wed Feb<br>
> 13 09:14:07.101 2013: Disk failure.  Volume desarchive. rc = 19. Physical<br>
> volume dh1_vd05_005.<br>
> Wed Feb 13 09:14:07.102 2013: File System desarchive unmounted by<br>
> the system with return code 5 reason code 0 Wed Feb 13 09:14:07.103<br>
> 2013: Input/output error Wed Feb 13 09:14:07.102 2013: Failed to open<br>
> desarchive.<br>
> Wed Feb 13 09:14:07.103 2013: Input/output error Wed Feb 13<br>
> 09:14:07.102 2013: Command: err 666: mount desarchive Wed Feb 13<br>
> 09:14:07.104 2013: Input/output error Wed Feb 13 09:14:07 CST 2013:<br>
> mmcommon preunmount invoked.  File system: desarchive  Reason:<br>
> SGPanic<br>
><br>
> Is there any way to repair the header on the NSD?<br>
><br>
> Thanks for any ideas!<br>
> Chad<br>
><br>
><br>
> _______________________________________________<br>
> gpfsug-discuss mailing list<br>
> <a href="mailto:gpfsug-discuss@gpfsug.org">gpfsug-discuss@gpfsug.org</a><br>
> <a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>
<br>
<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
<a href="mailto:gpfsug-discuss@gpfsug.org">gpfsug-discuss@gpfsug.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>
</div></div></blockquote></div><br></div></div>