<div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div dir="ltr" >Hi Sven,</div>
<div dir="ltr" > </div>
<div dir="ltr" >I assumed you are running on 5.0.0 since you've linked to the 5.0.0 KC. From the information you've provided now I'm guessing that you are running 4.2.3 with minReleaseLevel still set to 4.2.1 (since REST API v2 is only available from 4.2.3 on).</div>
<div dir="ltr" > </div>
<div dir="ltr" >I've looked at 4.2.3 and you are right: Fileset Usage information is indeed not available in REST API v2. I'm not sure if there were technical reasons for leaving these fields out in 4.2.3 v2 so I will do some research on that. Depending on the outcome the missing fields could probably be added with the next PTF.</div>
<div dir="ltr" > </div>
<div dir="ltr" >In regards to the GUI behavior you've mentioned: The 4.2.3 GUI also uses data queried directly from Zimon. For that the <span dir="auto" >GPFSFilesetQuota sensor should be enabled. You can check this by executing <em>mmperfmon config show</em> and verify that this sensor has a non zero period. Here's some additional information on that topic:</span></div>
<div dir="ltr" > </div>
<div dir="ltr" ><a href="https://www.ibm.com/support/knowledgecenter/en/STXKQY_4.2.3/com.ibm.spectrum.scale.v4r23.doc/bl1hlp_filesfilesetsmetrics.htm" >https://www.ibm.com/support/knowledgecenter/en/STXKQY_4.2.3/com.ibm.spectrum.scale.v4r23.doc/bl1hlp_filesfilesetsmetrics.htm</a></div>
<div dir="ltr" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial;font-size:10.5pt" ><div dir="ltr" > </div>
<div dir="ltr" >Troubleshooting:</div>
<div dir="ltr" > </div>
<div dir="ltr" ><a href="https://www.ibm.com/support/knowledgecenter/en/STXKQY_4.2.3/com.ibm.spectrum.scale.v4r23.doc/bl1pdg_guicapacityinfoissue.htm" >https://www.ibm.com/support/knowledgecenter/en/STXKQY_4.2.3/com.ibm.spectrum.scale.v4r23.doc/bl1pdg_guicapacityinfoissue.htm</a></div>
<div dir="ltr" > </div>
<div dir="ltr" ><br>Mit freundlichen Grüßen / Kind regards<br><br>Andreas Koeninger<br>Scrum Master and Software Developer / Spectrum Scale GUI and REST API<br>IBM Systems &Technology Group, Integrated Systems Development / M069<br>-------------------------------------------------------------------------------------------------------------------------------------------<br>IBM Deutschland<br>Am Weiher 24<br>65451 Kelsterbach<br>Phone: +49-7034-643-0867<br>Mobile: +49-7034-643-0867<br>E-Mail: andreas.koeninger@de.ibm.com<br>-------------------------------------------------------------------------------------------------------------------------------------------<br>IBM Deutschland Research & Development GmbH / Vorsitzende des Aufsichtsrats: Martina Koederitz<br>Geschäftsführung: Dirk Wittkopp Sitz der Gesellschaft: Böblingen / Registergericht: Amtsgericht Stuttgart, HRB 243294</div></div></div></div></div></div></div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<blockquote data-history-content-modified="1" dir="ltr" style="border-left:solid #aaaaaa 2px; margin-left:5px; padding-left:5px; direction:ltr; margin-right:0px" >----- Original message -----<br>From: Sven Siebler <sven.siebler@urz.uni-heidelberg.de><br>Sent by: gpfsug-discuss-bounces@spectrumscale.org<br>To: Andreas Koeninger <andreas.koeninger@de.ibm.com><br>Cc: gpfsug-discuss@spectrumscale.org<br>Subject: Re: [gpfsug-discuss] Getting inode information with REST API V2<br>Date: Wed, Sep 5, 2018 1:46 PM<br> 
<div><font size="2" face="Default Monospace,Courier New,Courier,monospace" >Hi Andreas,<br><br>i've forgotten to mention that we are currently using ISS v4.2.1, not<br>v5.0.0.<br><br>Invastigating the command i got the following:<br><br># /usr/lpp/mmfs/gui/cli/runtask FILESETS --debug<br>debug: locale=en_US<br>debug: Running 'mmlsfileset 'lsdf02' -di -Y ' on node localhost<br><br>debug: Raising event: inode_normal<br>debug: Running 'mmsysmonc event 'filesystem' 'inode_normal'<br>'lsdf02/sd17e005' 'lsdf02/sd17e005,' ' on node localhost<br>debug: Raising event: inode_normal<br>debug: Running 'mmsysmonc event 'filesystem' 'inode_normal'<br>'lsdf02/sd17g004' 'lsdf02/sd17g004,' ' on node localhost<br>[...]<br>debug: perf: Executing mmhealth node show --verbose -N 'llsdf02e4' -Y <br>took 1330ms<br>[...]<br>debug: Inserting 0 new informational HealthEvents for node llsdf02e4<br>debug: perf: processInfoEvents() with 2 events took 5ms<br>debug: perf: Parsing 23 state rows took 9ms<br>debug: Deleted 0 orphaned states.<br>debug: Loaded list of state changing HealthEvent objects. Size: 4<br>debug: Inserting 0 new state changing HealthEvents in the history table<br>for node llsdf02e4<br>debug: perf: processStateChangingEvents() with 3 events took 2ms<br>debug: perf: pool-90578-thread-1 - Processing 5 eventlog rows of node<br>llsdf02e4 took 10ms in total<br>debug: Deleted 0 orphaned states from history.<br>debug: Loaded list of state changing HealthEvent objects. Size: 281<br>debug: Inserting 0 new state changing HealthEvents for node llsdf02e4<br>debug: perf: Processing 23 state rows took 59ms in total<br><br>The command takes very long due to the -di option.<br><br>I tried also your posted zimon command:<br><br>#  echo "get -a metrics<br>max(gpfs_fset_maxInodes),max(gpfs_fset_freeInodes),max(gpfs_fset_allocInodes)<br>from gpfs_fs_name=lsdf02 group_by gpfs_fset_name last 13 bucket_size<br>300" | /opt/IBM/zimon/zc 127.0.0.1<br><br>Error: No data available for query: 6396075<br><br>In the Admin GUI i noticed that the Information in "Files -> Filesets -><br><Filesetname> -> Details" shows inconsistent inode information, e.g.<br><br>   in Overview:<br>       Inodes: 76M<br>       Max Inodes: 315M<br><br>   in Properties:<br>      Inodes:        1<br>      Max inodes:        314572800<br><br>thanks,<br>Sven<br><br><br><br>On 05.09.2018 11:13, Andreas Koeninger wrote:<br>> Hi Sven,<br>> the REST API v2 provides similar information to what v1 provided. See<br>> an example from my system below:<br>> /scalemgmt/v2/filesystems/gpfs0/filesets?fields=:all:<br>> [...]<br>>     "filesetName" : "fset1",<br>>     "filesystemName" : "gpfs0",<br>>     "usage" : {<br>>       "allocatedInodes" : 51232,<br>>       "inodeSpaceFreeInodes" : 51231,<br>>       "inodeSpaceUsedInodes" : 1,<br>>       "usedBytes" : 0,<br>>       "usedInodes" : 1<br>>     }<br>>   } ],<br>> *In 5.0.0 there are two sources for the inode information: the first<br>> one is mmlsfileset and the second one is the data collected by Zimon.*<br>> Depending on the availability of the data either one is used.<br>><br>> To debug what's happening on your system you can *execute the FILESETS<br>> task on the GUI node* manually with the --debug flag. The output is<br>> then showing the exact queries that are used to retrieve the data:<br>> *[root@os-11 ~]# /usr/lpp/mmfs/gui/cli/runtask FILESETS --debug*<br>> debug: locale=en_US<br>> debug: Running 'mmlsfileset 'gpfs0' -Y ' on node localhost<br>> debug: Running zimon query: 'get -ja metrics<br>> max(gpfs_fset_maxInodes),max(gpfs_fset_freeInodes),max(gpfs_fset_allocInodes),max(gpfs_rq_blk_current),max(gpfs_rq_file_current)<br>> from gpfs_fs_name=gpfs0 group_by gpfs_fset_name last 13 bucket_size 300'<br>> debug: Running 'mmlsfileset 'objfs' -Y ' on node localhost<br>> debug: Running zimon query: 'get -ja metrics<br>> max(gpfs_fset_maxInodes),max(gpfs_fset_freeInodes),max(gpfs_fset_allocInodes),max(gpfs_rq_blk_current),max(gpfs_rq_file_current)<br>> from gpfs_fs_name=objfs group_by gpfs_fset_name last 13 bucket_size 300'<br>> EFSSG1000I The command completed successfully.<br>> *As a start I suggest running the displayed Zimon queries manually to<br>> see what's returned there, e.g.:*<br>> /(Removed -j for better readability)/<br>><br>> *[root@os-11 ~]# echo "get -a metrics<br>> max(gpfs_fset_maxInodes),max(gpfs_fset_freeInodes),max(gpfs_fset_allocInodes),max(gpfs_rq_blk_current),max(gpfs_rq_file_current)<br>> from gpfs_fs_name=gpfs0 group_by gpfs_fset_name last 13 bucket_size<br>> 300" | /opt/IBM/zimon/zc 127.0.0.1*<br>> 1:<br>>  gpfs-cluster-1.novalocal|GPFSFileset|gpfs0|.audit_log|gpfs_fset_maxInodes<br>> 2:  gpfs-cluster-1.novalocal|GPFSFileset|gpfs0|fset1|gpfs_fset_maxInodes<br>> 3:  gpfs-cluster-1.novalocal|GPFSFileset|gpfs0|root|gpfs_fset_maxInodes<br>> 4:<br>>  gpfs-cluster-1.novalocal|GPFSFileset|gpfs0|.audit_log|gpfs_fset_freeInodes<br>> 5:  gpfs-cluster-1.novalocal|GPFSFileset|gpfs0|fset1|gpfs_fset_freeInodes<br>> 6:  gpfs-cluster-1.novalocal|GPFSFileset|gpfs0|root|gpfs_fset_freeInodes<br>> 7:<br>>  gpfs-cluster-1.novalocal|GPFSFileset|gpfs0|.audit_log|gpfs_fset_allocInodes<br>> 8:  gpfs-cluster-1.novalocal|GPFSFileset|gpfs0|fset1|gpfs_fset_allocInodes<br>> 9:  gpfs-cluster-1.novalocal|GPFSFileset|gpfs0|root|gpfs_fset_allocInodes<br>> Row    Timestamp        max(gpfs_fset_maxInodes)<br>>  max(gpfs_fset_maxInodes)    max(gpfs_fset_maxInodes)<br>>  max(gpfs_fset_freeInodes)    max(gpfs_fset_freeInodes)<br>>  max(gpfs_fset_freeInodes)    max(gpfs_fset_allocInodes)<br>>  max(gpfs_fset_allocInodes)    max(gpfs_fset_allocInodes)<br>> 1    2018-09-05 10:10:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> 2    2018-09-05 10:15:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> 3    2018-09-05 10:20:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> 4    2018-09-05 10:25:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> 5    2018-09-05 10:30:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> 6    2018-09-05 10:35:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> 7    2018-09-05 10:40:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> 8    2018-09-05 10:45:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> 9    2018-09-05 10:50:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> 10    2018-09-05 10:55:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> 11    2018-09-05 11:00:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> 12    2018-09-05 11:05:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> 13    2018-09-05 11:10:00    100000    620640    65792  65795  <br>>  51231    61749    65824    51232    65792<br>> .<br>><br>> Mit freundlichen Grüßen / Kind regards<br>><br>> Andreas Koeninger<br>> Scrum Master and Software Developer / Spectrum Scale GUI and REST API<br>> IBM Systems &Technology Group, Integrated Systems Development / M069<br>> -------------------------------------------------------------------------------------------------------------------------------------------<br>> IBM Deutschland<br>> Am Weiher 24<br>> 65451 Kelsterbach<br>> Phone: +49-7034-643-0867<br>> Mobile: +49-7034-643-0867<br>> E-Mail: andreas.koeninger@de.ibm.com<br>> -------------------------------------------------------------------------------------------------------------------------------------------<br>> IBM Deutschland Research & Development GmbH / Vorsitzende des<br>> Aufsichtsrats: Martina Koederitz<br>> Geschäftsführung: Dirk Wittkopp Sitz der Gesellschaft: Böblingen /<br>> Registergericht: Amtsgericht Stuttgart, HRB 243294<br>><br>>     ----- Original message -----<br>>     From: Sven Siebler <sven.siebler@urz.uni-heidelberg.de><br>>     Sent by: gpfsug-discuss-bounces@spectrumscale.org<br>>     To: gpfsug-discuss@spectrumscale.org<br>>     Cc:<br>>     Subject: [gpfsug-discuss] Getting inode information with REST API V2<br>>     Date: Wed, Sep 5, 2018 9:37 AM<br>>     Hi all,<br>><br>>     i just started to use the REST API for our monitoring and my<br>>     question is<br>>     concerning about how can i get information about allocated inodes with<br>>     REST API V2 ?<br>><br>>     Up to now i use "mmlsfileset" directly, which gives me information on<br>>     maximum and allocated inodes (mmdf for total/free/allocated inodes of<br>>     the filesystem)<br>><br>>     If i use the REST API V2 with<br>>     "filesystems/<filesystem_name>/filesets?fields=:all:", i get all<br>>     information except the allocated inodes.<br>><br>>     On the documentation<br>>     (<a href="https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adm_apiv2getfilesystemfilesets.htm" target="_blank" >https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adm_apiv2getfilesystemfilesets.htm</a>)<br>>     i found:<br>><br>>      > "inodeSpace": "Inodes"<br>>      > The number of inodes that are allocated for use by the fileset.<br>><br>>     but for me the inodeSpace looks more like the ID of the inodespace,<br>>     instead of the number of allocated inodes.<br>><br>>     In the documentation example the API can give output like this:<br>><br>>     "filesetName" : "root",<br>>             "filesystemName" : "gpfs0",<br>>             "usage" : {<br>>                 "allocatedInodes" : 100000,<br>>                 "inodeSpaceFreeInodes" : 95962,<br>>                 "inodeSpaceUsedInodes" : 4038,<br>>                 "usedBytes" : 0,<br>>                 "usedInodes" : 4038<br>>     }<br>><br>>     but i could not retrieve such usage-fields in my queries.<br>><br>>     The only way for me to get inode information with REST is the<br>>     usage of V1:<br>><br>>     <a href="https://REST_API_host:port/scalemgmt/v1/filesets?filesystemName=FileSystemName" target="_blank" >https://REST_API_host:port/scalemgmt/v1/filesets?filesystemName=FileSystemName</a><br>><br>>     which gives exact the information of "mmlsfileset".<br>><br>>     But because V1 is deprecated i want to use V2 for rewriting our<br>>     tools...<br>><br>>     Thanks,<br>><br>>     Sven<br>><br>><br>>     --<br>>     Sven Siebler<br>>     Servicebereich Future IT - Research & Education (FIRE)<br>><br>>     Tel. +49 6221 54 20032<br>>     sven.siebler@urz.uni-heidelberg.de<br>>     Universität Heidelberg<br>>     Universitätsrechenzentrum (URZ)<br>>     Im Neuenheimer Feld 293, D-69120 Heidelberg<br>>     <a href="http://www.urz.uni-heidelberg.de" target="_blank" >http://www.urz.uni-heidelberg.de</a><br>><br>>     _______________________________________________<br>>     gpfsug-discuss mailing list<br>>     gpfsug-discuss at spectrumscale.org<br>>     <a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank" >http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>><br>><br><br>--<br>Sven Siebler<br>Servicebereich Future IT - Research & Education (FIRE)<br><br>Tel. +49 6221 54 20032<br>sven.siebler@urz.uni-heidelberg.de<br>Universität Heidelberg<br>Universitätsrechenzentrum (URZ)<br>Im Neuenheimer Feld 293, D-69120 Heidelberg<br><a href="http://www.urz.uni-heidelberg.de" target="_blank" >http://www.urz.uni-heidelberg.de</a></font><br><br> </div>
<div id="MIMEAttachInfoDiv" style="display:none" title="octet-stream|smime.p7s" > </div>
<div><font size="2" face="Default Monospace,Courier New,Courier,monospace" >_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank" >http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></div></blockquote>
<div dir="ltr" > </div></div><BR>