<font size=2 face="sans-serif">Generally yes.  When reading, more
disks is always better then fewer disks, both for replication and with
striping over several or many disks.</font><br><font size=2 face="sans-serif">When writing, more disks is good with
striping.  But yes, replication costs you extra writes.  Those
writes don't necessarily cost you loss of time, provided they can be done
concurrently.</font><br><br><font size=2 face="sans-serif">When I write "disks" I mean
storage devices that can be accessed concurrently.   Watch out for
virtual LUNs.  </font><br><font size=2 face="sans-serif">With conventional controllers and drives,
it does GPFS little or no good when multiple LUNs map to the same real
disk device, since multiple operations to different LUNs will ultimately
be serialized at </font><br><font size=2 face="sans-serif">one real disk arm/head!</font><br><br><font size=2 face="sans-serif">For high performance, you should not
be thinking about "two NSDs" ... you should be thinking about
many NSD, so data and metadata can be striped, and written and read concurrently.</font><br><font size=2 face="sans-serif">But yes, for replication purposes you
have to consider defining and properly configuring at least two "failure
groups".</font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">"Tomasz.Wolski@ts.fujitsu.com"
<Tomasz.Wolski@ts.fujitsu.com></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">"gpfsug-discuss@spectrumscale.org"
<gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">11/30/2015 05:46 AM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">[gpfsug-discuss]
IO performance of replicated GPFS filesystem</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><font size=2 face="Calibri">Hi All,</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">I could use some help of the experts here
</font><font size=2 face="Wingdings">J</font><font size=2 face="Calibri">Please correct me if I’m wrong: I suspect that GPFS filesystem READ performance
is better when filesystem is replicated to i.e. two failure groups, where
these failure groups are placed on separate RAID controllers. In this case
WRITE performance should be worse, since the same data must go to two locations.
What about situation where GPFS filesystem has two metadataOnly NSDs which
are also replicated? Does metadata READ performance increase in this way
as well (and WRITE decreases)?</font><br><font size=2 face="Calibri"> </font><br><font size=2 face="Calibri">Best regards,</font><br><font size=2 face="Calibri">Tomasz Wolski</font><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><br><BR>