<div dir="ltr"><div><div>You don't have room to write 180GB of file data, only ~100GB. When you write f.ex. 90 GB of file data, each filesystem block will get one copy written to each of your disks, occuppying 180 GB on total disk space. So you can always read if from the other disks if one should fail.<br><br></div>This is controlled by your "-m 2 -r 2" settings, and the default failureGroup -1 since you didn't specify a failure group in your disk descriptor. Normally I would always specify a failure group when doing replication.<br><br><br></div>  -jf<br><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Oct 9, 2017 at 2:47 PM, atmane khiredine <span dir="ltr"><<a href="mailto:a.khiredine@meteo.dz" target="_blank">a.khiredine@meteo.dz</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">dear all<br>
<br>
how gpfs work when disk fail<br>
<br>
this is a example scenario when disk fail<br>
<br>
1 Server<br>
<br>
2 Disk directly attached to the local node 100GB<br>
<br>
mmlscluster<br>
<br>
GPFS cluster information<br>
========================<br>
  GPFS cluster name:         test.gpfs<br>
  GPFS cluster id:           174397273000001824<br>
  GPFS UID domain:           test.gpfs<br>
  Remote shell command:      /usr/bin/ssh<br>
  Remote file copy command:  /usr/bin/scp<br>
  Repository type:           server-based<br>
<br>
GPFS cluster configuration servers:<br>
------------------------------<wbr>-----<br>
  Primary server:    gpfs<br>
  Secondary server:  (none)<br>
<br>
 Node  Daemon node name  IP address   Admin node name  Designation<br>
------------------------------<wbr>------------------------------<wbr>-------<br>
   1   gpfs         192.168.1.10    gpfs            quorum-manager<br>
<br>
cat disk<br>
<br>
%nsd:<br>
  device=/dev/sdb<br>
  nsd=nsda<br>
  servers=gpfs<br>
  usage=dataAndMetadata<br>
  pool=system<br>
<br>
%nsd:<br>
  device=/dev/sdc<br>
  nsd=nsdb<br>
  servers=gpfs<br>
  usage=dataAndMetadata<br>
  pool=system<br>
<br>
mmcrnsd -F disk.txt<br>
<br>
mmlsnsd -X<br>
<br>
 Disk name    NSD volume ID      Device     Devtype  Node name    Remarks<br>
------------------------------<wbr>------------------------------<wbr>---------------<br>
 nsdsdbgpfsa  C0A8000F59DB69E2   /dev/sdb   generic  gpfsa-ib   server node<br>
 nsdsdcgpfsa  C0A8000F59DB69E3   /dev/sdc   generic  gpfsa-ib   server node<br>
<br>
<br>
mmcrfs gpfs -F disk.txt -B 1M -L 32M -T /gpfs -A no -m 2 -M 3 -r 2 -R 3<br>
<br>
mmmount gpfs<br>
<br>
df -h<br>
<br>
gpfs   200G    3,8G  197G   2% /gpfs  <-- The Disk Have 200GB<br>
<br>
my question is the following ??<br>
<br>
if I write 180 GB of data in /gpfs<br>
and the disk /dev/sdb is fail<br>
how the disk and/or GPFS continues to support all my data<br>
<br>
Thanks<br>
<span class="HOEnZb"><font color="#888888"><br>
Atmane Khiredine<br>
HPC System Administrator | Office National de la Météorologie<br>
Tél : <a href="tel:%2B213%2021%2050%2073%2093%20%23%20303" value="+21321507393">+213 21 50 73 93 # 303</a> | Fax : <a href="tel:%2B213%2021%2050%2079%2040" value="+21321507940">+213 21 50 79 40</a> | E-mail : <a href="mailto:a.khiredine@meteo.dz">a.khiredine@meteo.dz</a><br>
______________________________<wbr>_________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer" target="_blank">http://gpfsug.org/mailman/<wbr>listinfo/gpfsug-discuss</a><br>
</font></span></blockquote></div><br></div>