<html><body>
<p><font size="2" face="sans-serif">Hi,</font><br>
<font size="2" face="sans-serif">The data and metadata replications are 2 on both source and destination filesystems, so from:</font><br>
<br>
<tt><font size="2">$ mmrepquota -j srcfilesys | grep fileset<br>
srcfileset FILESET         800        800        800          0     none |      863       0        0 <br>
        0     none<br>
<br>
$ mmrepquota -j dstfilesys | grep fileset<br>
fileset root       FILESET         457        400        400          0     none |      853       0 <br>
       0        0     none</font></tt><br>
<br>
<font size="2" face="sans-serif">the quota data should be changed from 800G to 457G (or 400G to 228.5G), after "rsync -AHS".</font><br>
<br>
<br>
<font size="2" face="sans-serif">Regards, The Spectrum Scale (GPFS) team<br>
<br>
------------------------------------------------------------------------------------------------------------------<br>
If you feel that your question can benefit other users of  Spectrum Scale (GPFS), then please post it to the public IBM developerWroks Forum at <a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479">https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479</a>. <br>
<br>
If your query concerns a potential software error in Spectrum Scale (GPFS) and you have an IBM software maintenance contract please contact  1-800-237-5511 in the United States or your local IBM Service Center in other countries. <br>
<br>
The forum is informally monitored as time permits and should not be used for priority messages to the Spectrum Scale (GPFS) team.</font><br>
<br>
<img width="16" height="16" src="cid:1__=0ABB0C7BDFDEFC748f9e8a93df938690@ibm.com" border="0" alt="Inactive hide details for Ulrich Sibiller ---06/02/2021 06:16:22 PM---On 6/1/21 6:08 PM, Kumaran Rajaram wrote: >>> If I'm not "><font size="2" color="#424282" face="sans-serif">Ulrich Sibiller ---06/02/2021 06:16:22 PM---On 6/1/21 6:08 PM, Kumaran Rajaram wrote: >>> If I'm not mistaken even with SS5 created filesystems,</font><br>
<br>
<font size="1" color="#5F5F5F" face="sans-serif">From:      </font><font size="1" face="sans-serif">Ulrich Sibiller <u.sibiller@science-computing.de></font><br>
<font size="1" color="#5F5F5F" face="sans-serif">To:        </font><font size="1" face="sans-serif">Kumaran Rajaram <krajaram@geocomputing.net>, gpfsug main discussion list <gpfsug-discuss@spectrumscale.org>, "gpfsug-discuss@gpfsug.org" <gpfsug-discuss@gpfsug.org></font><br>
<font size="1" color="#5F5F5F" face="sans-serif">Date:      </font><font size="1" face="sans-serif">06/02/2021 06:16 PM</font><br>
<font size="1" color="#5F5F5F" face="sans-serif">Subject:   </font><font size="1" face="sans-serif">[EXTERNAL] Re: [gpfsug-discuss] du --apparent-size and quota</font><br>
<font size="1" color="#5F5F5F" face="sans-serif">Sent by:   </font><font size="1" face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br>
<hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br>
<br>
<br>
<tt><font size="2">On 6/1/21 6:08 PM, Kumaran Rajaram wrote:<br>
>>> If I'm not mistaken even with SS5 created filesystems, 1 MiB FS block size implies 32 kiB sub blocks (32 sub-blocks).<br>
> <br>
> Just to add: The /srcfilesys seemed to have been created with GPFS version 4.x which supports only 32 sub-blocks per block.<br>
> <br>
> -T                 /srcfilesys              Default mount point<br>
> -V                 16.00 (4.2.2.0)          Current file system version<br>
>                     14.10 (4.1.0.4)          Original file system version<br>
> --create-time      Tue Feb  3 11:46:10 2015 File system creation time<br>
> -B                 1048576                  Block size<br>
> -f                 32768                    Minimum fragment (subblock) size in bytes<br>
> --subblocks-per-full-block 32               Number of subblocks per full block<br>
> <br>
> <br>
> The /dstfilesys was created with GPFS version 5.x which support greater than 32 subblocks per block. /dstfilesys does have 512 subblocks-per-full-block with 8KiB subblock size since file-system blocksize is 4MiB.<br>
> <br>
> <br>
> -T                 /dstfilesys              Default mount point<br>
> -V                 23.00 (5.0.5.0)          File system version<br>
> --create-time      Tue May 11 16:51:27 2021 File system creation time<br>
> -B                 4194304                  Block size<br>
> -f                 8192                     Minimum fragment (subblock) size in bytes<br>
> --subblocks-per-full-block 512              Number of subblocks per full block<br>
> <br>
<br>
Well, from the higher flexibility in terms of the number of subblocks I'd expect a lower disk usage <br>
instead of a higher one. Is this a wrong assumption? From 400G to 457G it's a ~13% increase!<br>
<br>
> Beside the overhead, hard-links in the source FS (which, if I'm not mistaken, are not handled by "rsync" unless you specify "-H") and in some cases spare files can also explain the differences.<br>
<br>
My rsync is using -AHS, so this should not be relevant here.<br>
<br>
Uli<br>
<br>
-- <br>
Science + Computing AG<br>
Vorstandsvorsitzender/Chairman of the board of management:<br>
Dr. Martin Matzke<br>
Vorstand/Board of Management:<br>
Matthias Schempp, Sabine Hohenstein<br>
Vorsitzender des Aufsichtsrats/<br>
Chairman of the Supervisory Board:<br>
Philippe Miltin<br>
Aufsichtsrat/Supervisory Board:<br>
Martin Wibbe, Ursula Morgenstern<br>
Sitz/Registered Office: Tuebingen<br>
Registergericht/Registration Court: Stuttgart<br>
Registernummer/Commercial Register No.: HRB 382196<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at spectrumscale.org<br>
</font></tt><tt><font size="2"><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></tt><tt><font size="2"> <br>
<br>
</font></tt><br>
<br>
</body></html>