<font size=2 face="sans-serif"> to add a comment ...  .. very
simply... depending on how you allocate the physical block storage ....
if you - simply - using less physical resources when reducing the capacity
(in the same ratio) .. you get , what you see.... </font><br><br><font size=2 face="sans-serif">so you need to tell us, how you allocate
your block-storage .. (Do you using RAID controllers , where are your LUNs
coming from, are then less RAID groups involved, when reducing the capacity
?...) </font><br><br><font size=2 face="sans-serif">GPFS can be configured to give you pretty
as much as what the hardware can deliver.. if you reduce resource.. ...
you'll get less , if you enhance your hardware .. you get more... almost
regardless of the total capacity in #blocks .. </font><br><br><br><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">"Kumaran Rajaram"
<kums@us.ibm.com></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">gpfsug main discussion
list <gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">11/15/2017 11:56 AM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">Re: [gpfsug-discuss]
Write performances and filesystem size</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><font size=2 face="Arial">Hi,</font><font size=3 face="sans-serif"><br></font><font size=2 color=red face="Arial"><br>>>Am I missing something? Is this an expected behaviour and someone
has an explanation for this?</font><font size=3 face="sans-serif"><br></font><font size=2 face="Arial"><br>Based on your scenario, write degradation as the file-system is populated
is possible if you had formatted the file-system with "-j cluster".
</font><font size=3 face="sans-serif"><br></font><font size=2 face="Arial"><br>For consistent file-system performance, we recommend <b>mmcrfs "-j
scatter" layoutMap.</b>   Also, we need to ensure the mmcrfs
"-n"  is set properly.</font><font size=3 face="sans-serif"><br></font><font size=2 face="Arial"><br>[snip from mmcrfs]</font><font size=2 color=blue face="Arial"><i><br># mmlsfs <fs> | egrep 'Block allocation| Estimated number'<br> -j                 scatter  
               Block allocation
type<br> -n                 128  
                    Estimated
number of nodes that will mount file system</i></font><font size=2 face="Arial"><br>[/snip]</font><font size=3 face="sans-serif"><br><br></font><font size=2 face="Arial"><br>[snip from man mmcrfs]</font><font size=2 color=blue face="Arial"><i><br> <b>layoutMap={scatter|</i></b><i> <b>cluster}</i></b><i><br>                  Specifies
the block allocation map type. When<br>                  allocating
blocks for a given file, GPFS first<br>                  uses a round$B!>(Brobin
algorithm to spread the data<br>                  across all
disks in the storage pool. After a<br>                  disk is
selected, the location of the data<br>                  block on
the disk is determined by the block<br>                  allocation
map type<b>. If cluster is<br>                  specified,
GPFS attempts to allocate blocks in<br>                  clusters.
Blocks that belong to a particular<br>                  file are
kept adjacent to each other within<br>                  each cluster.
If scatter is specified,<br>                  the location
of the block is chosen randomly.</i></b></font><font size=3 face="sans-serif"><br></font><font size=2 color=blue face="Arial"><i><br>              <b>   The cluster
allocation method may provide<br>                  better disk
performance for some disk<br>                  subsystems
in relatively small installations.<br>                  The benefits
of clustered block allocation<br>                  diminish
when the number of nodes in the<br>                  cluster
or the number of disks in a file system<br>                  increases,
or when the file system$B!G(Bs free space<br>                  becomes
fragmented. </i></b><i>The <b>cluster</i></b><i><br>                  allocation
method is the default for GPFS<br>                  clusters
with eight or fewer nodes and for file<br>                  systems
with eight or fewer disks.</i></font><font size=3 face="sans-serif"><br></font><font size=2 color=blue face="Arial"><i><br>                 <b>The scatter
allocation method provides<br>                  more consistent
file system performance by<br>                  averaging
out performance variations due to<br>                  block location
(for many disk subsystems, the<br>                  location
of the data relative to the disk edge<br>                  has a substantial
effect on performance).</i></b><i>This<br>                  allocation
method is appropriate in most cases<br>                  and is the
default for GPFS clusters with more<br>                  than eight
nodes or file systems with more than<br>                  eight disks.</i></font><font size=3 face="sans-serif"><br></font><font size=2 color=blue face="Arial"><i><br>                  The block
allocation map type cannot be changed<br>                  after the
storage pool has been created.</i></font><font size=3 face="sans-serif"><br><br></font><font size=2 color=blue face="Arial"><b><i><br>-n</i></b><i> <b>NumNodes</i></b><i><br>         The estimated number of nodes that will mount
the file<br>         system in the local cluster and all remote
clusters.<br>         This is used as a best guess for the initial
size of<br>         some file system data structures. The default
is 32.<br>         This value can be changed after the file system
has been<br>         created but it does not change the existing
data<br>         structures. Only the newly created data structure
is<br>         affected by the new value. For example, new
storage<br>         pool.</i></font><font size=3 face="sans-serif"><br></font><font size=2 color=blue face="Arial"><i><br>         When you create a GPFS file system, you might
want to<br>         overestimate the number of nodes that will
mount the<br>         file system. GPFS uses this information for
creating<br>         data structures that are essential for achieving
maximum<br>         parallelism in file system operations (For
more<br>         information, see GPFS architecture in IBM
Spectrum<br>         Scale: Concepts, Planning, and Installation
Guide ). If<br>         you are sure there will never be more than
64 nodes,<br>         allow the default value to be applied. If
you are<br>         planning to add nodes to your system, you
should specify<br>         a number larger than the default.</i></font><font size=3 face="sans-serif"><br></font><font size=2 face="Arial"><br>[/snip from man mmcrfs]</font><font size=3 face="sans-serif"><br></font><font size=2 face="Arial"><br>Regards,<br>-Kums</font><font size=3 face="sans-serif"><br><br><br><br><br></font><font size=1 color=#5f5f5f face="sans-serif"><br>From:        </font><font size=1 face="sans-serif">Ivano
Talamo <Ivano.Talamo@psi.ch></font><font size=1 color=#5f5f5f face="sans-serif"><br>To:        </font><font size=1 face="sans-serif"><gpfsug-discuss@spectrumscale.org></font><font size=1 color=#5f5f5f face="sans-serif"><br>Date:        </font><font size=1 face="sans-serif">11/15/2017
11:25 AM</font><font size=1 color=#5f5f5f face="sans-serif"><br>Subject:        </font><font size=1 face="sans-serif">[gpfsug-discuss]
Write performances and filesystem size</font><font size=1 color=#5f5f5f face="sans-serif"><br>Sent by:        </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><font size=3 face="sans-serif"><br></font><hr noshade><font size=3 face="sans-serif"><br><br></font><tt><font size=2><br>Hello everybody,<br><br>together with my colleagues we are actually running some tests on a new
<br>DSS G220 system and we see some unexpected behaviour.<br><br>What we actually see is that write performances (we did not test read <br>yet) decreases with the decrease of filesystem size.<br><br>I will not go into the details of the tests, but here are some numbers:<br><br>- with a filesystem using the full 1.2 PB space we get 14 GB/s as the <br>sum of the disk activity on the two IO servers;<br>- with a filesystem using half of the space we get 10 GB/s;<br>- with a filesystem using 1/4 of the space we get 5 GB/s.<br><br>We also saw that performances are not affected by the vdisks layout, ie.
<br>taking the full space with one big vdisk or 2 half-size vdisks per RG <br>gives the same performances.<br><br>To our understanding the IO should be spread evenly across all the <br>pdisks in the declustered array, and looking at iostat all disks seem to
<br>be accessed. But so there must be some other element that affects <br>performances.<br><br>Am I missing something? Is this an expected behaviour and someone has an
<br>explanation for this?<br><br>Thank you,<br>Ivano<br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font></tt><font size=3 color=blue face="sans-serif"><u><br></u></font><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=McIf98wfiVqHU8ZygezLrQ&m=py_FGl3hi9yQsby94NZdpBFPwcUU0FREyMSSvuK_10U&s=Bq1J9eIXxadn5yrjXPHmKEht0CDBwfKJNH72p--T-6s&e="><tt><font size=2 color=blue><u>https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=McIf98wfiVqHU8ZygezLrQ&m=py_FGl3hi9yQsby94NZdpBFPwcUU0FREyMSSvuK_10U&s=Bq1J9eIXxadn5yrjXPHmKEht0CDBwfKJNH72p--T-6s&e=</u></font></tt></a><tt><font size=2><br></font></tt><font size=3 face="sans-serif"><br><br></font><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><br><br><BR>