<html>
  <head>
    <meta http-equiv="Content-Type" content="text/html;
      charset=windows-1252">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <p>Hello Olaf, hello Marc,<br>
      <br>
      we in Jülich are in the middle of migrating/copying all our old
      filesystems which were created with filesystem version: 13.23
      (3.5.0.7) to new filesystems created with GPFS 5.0.1.<br>
      <br>
      We move to new filesystems mainly for two reasons: 1. We want to
      use the new increased number of subblocks. 2. We have to change
      our quota from normal "group-quota per filesystem" to
      "fileset-quota".<br>
      <br>
      The idea is to create a separate fileset for each group/project.
      For the users the quota-computation should be much more
      transparent. From now on all data which is stored inside of their
      directory (fileset) counts for their quota independent of the
      ownership.<br>
      <br>
      Right now we have round about 900 groups which means we will
      create round about 900 filesets per filesystem. In one filesystem
      we will have about 400million inodes (with rising tendency).<br>
      <br>
      This filesystem we will back up with "mmbackup" so we talked with
      Dominic Mueller-Wicke and he recommended us to use independent
      filesets. Because then the policy-runs can be parallelized and we
      can increase the backup performance. We belive that we require
      these parallelized policies run to meet our backup performance
      targets.<br>
      <br>
      But there are even more features we enable by using independet
      filesets. E.g. "Fileset level snapshots" and "user and group
      quotas inside of a fileset".<br>
      <br>
      I did not know about performance issues regarding independent
      filesets... Can you give us some more information about this?<br>
      <br>
      All in all we are strongly supporting the idea of increasing this
      limit.<br>
      <br>
      Do I understand correctly that by opening a PMR IBM allows to
      increase this limit on special sides? I would rather like to
      increase the limit and make it official public available and
      supported.<br>
      <br>
      Regards,<br>
      <br>
      Martin<br>
    </p>
    <br>
    <div class="moz-cite-prefix">Am 10.08.2018 um 14:51 schrieb Olaf
      Weiser:<br>
    </div>
    <blockquote type="cite"
cite="mid:OFE1CF6E93.C544A1CE-ONC12582E5.0045762F-C12582E5.0046AC62@notes.na.collabserv.com">
      <meta http-equiv="Content-Type" content="text/html;
        charset=windows-1252">
      <font size="2" face="sans-serif">Hallo Stephan, </font><br>
      <div><font size="2" face="sans-serif">the limit is not a hard
          coded limit
           - technically spoken, you can raise it easily. </font><br>
        <font size="2" face="sans-serif">But as always, it is a question
          of test
          'n support .. </font><br>
        <br>
        <font size="2" face="sans-serif">I've seen customer cases, where
          the
          use of much smaller amount of independent filesets generates a
          lot performance
          issues, hangs ... at least noise and partial trouble .. </font><br>
        <font size="2" face="sans-serif">it might be not the case with
          your specific
          workload, because due to the fact, that you 're running
          already  close
          to 1000 ...</font><br>
        <br>
        <font size="2" face="sans-serif">I suspect , this number of 1000
          file
          sets  - at the time of introducing it - was as also just that
          one
          had to pick a number... </font><br>
        <br>
        <font size="2" face="sans-serif">... turns out.. that a general
          commitment
          to support > 1000 ind.fileset is more or less hard..
          because what uses
          cases should we test / support</font><br>
        <font size="2" face="sans-serif">I think , there might be a good
          chance
          for you , that for your specific workload, one would allow and
          support
          more than 1000 </font><br>
        <br>
        <font size="2" face="sans-serif">do you still have a PMR for
          your side
          for this ?  - if not - I know .. open PMRs is an additional
          ...but
          could you please .. </font><br>
        <font size="2" face="sans-serif">then we can decide .. if
          raising the
          limit is an option for you .. </font><br>
        <br>
        <br>
        <br>
        <br>
        <br>
        <font size="2" face="sans-serif">Mit freundlichen Grüßen / Kind
          regards</font><br>
        <br>
        <font size="2" face="sans-serif"> <br>
          Olaf Weiser<br>
          <br>
          EMEA Storage Competence Center Mainz, German / IBM Systems,
          Storage Platform,<br>
-------------------------------------------------------------------------------------------------------------------------------------------<br>
          IBM Deutschland<br>
          IBM Allee 1<br>
          71139 Ehningen<br>
          Phone: +49-170-579-44-66<br>
          E-Mail: <a class="moz-txt-link-abbreviated" href="mailto:olaf.weiser@de.ibm.com">olaf.weiser@de.ibm.com</a><br>
-------------------------------------------------------------------------------------------------------------------------------------------<br>
          IBM Deutschland GmbH / Vorsitzender des Aufsichtsrats: Martin
          Jetter<br>
          Geschäftsführung: Martina Koederitz (Vorsitzende), Susanne
          Peter, Norbert
          Janzen, Dr. Christian Keller, Ivo Koerner, Markus Koerner<br>
          Sitz der Gesellschaft: Ehningen / Registergericht: Amtsgericht
          Stuttgart,
          HRB 14562 / WEEE-Reg.-Nr. DE 99369940 </font><br>
        <br>
        <br>
        <br>
        <font color="#5f5f5f" size="1" face="sans-serif">From:      
           </font><font size="1" face="sans-serif">"Peinkofer, Stephan"
          <a class="moz-txt-link-rfc2396E" href="mailto:Stephan.Peinkofer@lrz.de"><Stephan.Peinkofer@lrz.de></a></font><br>
        <font color="#5f5f5f" size="1" face="sans-serif">To:      
           </font><font size="1" face="sans-serif">gpfsug main
          discussion
          list <a class="moz-txt-link-rfc2396E" href="mailto:gpfsug-discuss@spectrumscale.org"><gpfsug-discuss@spectrumscale.org></a></font><br>
        <font color="#5f5f5f" size="1" face="sans-serif">Cc:      
           </font><font size="1" face="sans-serif">Doris Franke
          <a class="moz-txt-link-rfc2396E" href="mailto:doris.franke@de.ibm.com"><doris.franke@de.ibm.com></a>,
          Uwe Tron <a class="moz-txt-link-rfc2396E" href="mailto:utron@lenovo.com"><utron@lenovo.com></a>, Dorian Krause
          <a class="moz-txt-link-rfc2396E" href="mailto:d.krause@fz-juelich.de"><d.krause@fz-juelich.de></a></font><br>
        <font color="#5f5f5f" size="1" face="sans-serif">Date:      
           </font><font size="1" face="sans-serif">08/10/2018 01:29 PM</font><br>
        <font color="#5f5f5f" size="1" face="sans-serif">Subject:    
             </font><font size="1" face="sans-serif">[gpfsug-discuss]
          GPFS Independent Fileset Limit</font><br>
        <font color="#5f5f5f" size="1" face="sans-serif">Sent by:    
             </font><font size="1" face="sans-serif"><a class="moz-txt-link-abbreviated" href="mailto:gpfsug-discuss-bounces@spectrumscale.org">gpfsug-discuss-bounces@spectrumscale.org</a></font><br>
        <hr noshade="noshade"><br>
        <br>
        <br>
        <font size="3" face="Calibri">Dear IBM and GPFS List,</font><br>
        <br>
        <font size="3" face="Calibri">we at the Leibniz Supercomputing
          Centre
          and our GCS Partners from the Jülich Supercomputing Centre
          will soon be
          hitting the current Independent Fileset Limit of 1000 on a
          number of our
          GPFS Filesystems.</font><br>
        <br>
        <font size="3" face="Calibri">There are also a number of RFEs
          from other
          users open, that target this limitation:</font><br>
        <a
href="https://www.ibm.com/developerworks/rfe/execute?use_case=viewRfe&CR_ID=56780"
          moz-do-not-send="true"><font color="blue" size="3"
            face="Calibri"><u>https://www.ibm.com/developerworks/rfe/execute?use_case=viewRfe&CR_ID=56780</u></font></a><br>
        <a
href="https://www.ibm.com/developerworks/rfe/execute?use_case=viewRfe&CR_ID=120534"
          moz-do-not-send="true"><font size="3" face="Calibri">https://www.ibm.com/developerworks/rfe/execute?use_case=viewRfe&CR_ID=120534</font></a><font
          color="blue" size="3" face="Calibri"><u><br>
          </u></font><a
href="https://www.ibm.com/developerworks/rfe/execute?use_case=viewRfe&CR_ID=106530"
          moz-do-not-send="true"><font color="blue" size="3"
            face="Calibri"><u>https://www.ibm.com/developerworks/rfe/execute?use_case=viewRfe&CR_ID=106530</u></font></a><br>
        <a
href="https://www.ibm.com/developerworks/rfe/execute?use_case=viewRfe&CR_ID=85282"
          moz-do-not-send="true"><font color="blue" size="3"
            face="Calibri"><u>https://www.ibm.com/developerworks/rfe/execute?use_case=viewRfe&CR_ID=85282</u></font></a><font
          size="3" face="Calibri"><br>
        </font><br>
        <font size="3" face="Calibri">I know GPFS Development was very
          busy fulfilling
          the CORAL requirements but maybe now there is again some time
          to improve
          something else. </font><br>
        <br>
        <font size="3" face="Calibri">If there are any other users on
          the list
          that are approaching the current limitation in independent
          filesets, please
          take some time and vote for the RFEs above.</font><br>
        <br>
        <font size="3" face="Calibri">Many thanks in advance and have a
          nice
          weekend.</font><br>
        <font size="3" face="Calibri">Best Regards,</font><br>
        <font size="3" face="Calibri">Stephan Peinkofer</font><br>
        <br>
        <tt><font size="2">_______________________________________________<br>
            gpfsug-discuss mailing list<br>
            gpfsug-discuss at spectrumscale.org<br>
          </font></tt><a
          href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"
          moz-do-not-send="true"><tt><font size="2">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font
            size="2"><br>
          </font></tt><br>
        <br>
      </div>
      <br>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
gpfsug-discuss mailing list
gpfsug-discuss at spectrumscale.org
<a class="moz-txt-link-freetext" href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a>
</pre>
    </blockquote>
    <br>
  </body>
</html>