<html><body><p><font size="2">Hi,</font><br><br><font size="2">please upgrade to 4.2.3 ptf1 - the version before has an issue with federated queries in some situations.</font><br><br><font size="2" face="Arial">Mit freundlichen Grüßen / Kind regards</font><p><b><font face="Arial">Norbert Schuld</font></b><br><br><br><img width="16" height="16" src="cid:1__=8FBB0BB8DFDE28FA8f9e8a93df938690918c8FB@" border="0" alt="Inactive hide details for Kristy Kallback-Rose ---24/05/2017 21:58:07---Hello,   We have been experimenting with Zimon and the "><font size="2" color="#424282">Kristy Kallback-Rose ---24/05/2017 21:58:07---Hello,   We have been experimenting with Zimon and the SS GUI on our dev cluster</font><br><br><font size="2" color="#5F5F5F">From:        </font><font size="2">Kristy Kallback-Rose <kkr@lbl.gov></font><br><font size="2" color="#5F5F5F">To:        </font><font size="2">gpfsug-discuss@spectrumscale.org</font><br><font size="2" color="#5F5F5F">Date:        </font><font size="2">24/05/2017 21:58</font><br><font size="2" color="#5F5F5F">Subject:        </font><font size="2">[gpfsug-discuss] SS Metrics (Zimon) and SS GUI,        Federation not working</font><br><font size="2" color="#5F5F5F">Sent by:        </font><font size="2">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br><br><br>Hello, 
<p>  We have been experimenting with Zimon and the SS GUI on our dev cluster under 4.2.3. Things work well with one collector, but I'm running into issues when trying to use symmetric collector peers, i.e. federation. 
<p>  hostA and hostB are setup as both collectors and sensors with each a collector peer for the other. When this is done I can use mmperfmon to query hostA from hostA or hostB and vice versa. However, with this federation setup, the GUI fails to show data. The GUI is running on hostB. From the collector candidate pool, hostA has been selected (automatically, not manually) as can be seen in the sensor configuration file. The GUI is unable to load data (just shows "Loading" on the graph), *unless* I change the setting of the ZIMonAddress variable in /usr/lpp/mmfs/gui/conf/gpfsgui.properties from localhost to hostA explicitly, it does not work if I change it to hostB explicitly. The GUI also works fine if I remove the peer entries altogether and just have one collector.
<p>  I thought that federation meant that no matter which collector was queried the data would be returned. This appears to work for mmperfmon, but not the GUI. Can anyone advise? I also don't like the idea of having a pool of collector candidates and hard-coding one into the GUI configuration. I am including some output below to show the configs and query results.
<p>Thanks,
<p>Kristy
<p><p>  The peers are added into the ZIMonCollector.cfg using the default port 9085:
<p> peers = {
<p>        host = "hostA"
<p>        port = "9085"
<p> },
<p> {
<p>        host = "hostB"
<p>        port = "9085"
<p> }
<p><p>And the nodes are added as collector candidates, on hostA and hostB you see, looking at the config file directly, in /opt/IBM/zimon/ZIMonSensors.cfg:
<p>colCandidates = "<a href="http://hosta.nersc.gov/" target="_blank"><u><font color="#0000FF">hostA.nersc.gov</font></u></a>", "<a href="http://hostb.nersc.gov/" target="_blank"><u><font color="#0000FF">hostB.nersc.gov</font></u></a>"
<p>colRedundancy = 1
<p>collectors = {
<p>host = "<a href="http://hosta.nersc.gov/" target="_blank"><u><font color="#0000FF">hostA.nersc.gov</font></u></a>"
<p>port = "4739"
<p>}
<p><p>Showing the config with mmperfmon config show:
<p>colCandidates = "<a href="http://hosta.nersc.gov/" target="_blank"><u><font color="#0000FF">hostA.nersc.gov</font></u></a>", "<a href="http://hostb.nersc.gov/" target="_blank"><u><font color="#0000FF">hostB.nersc.gov</font></u></a>"
<p>colRedundancy = 1
<p>collectors = {
<p>host = ""
<p><p>Using mmperfmon I can query either host.
<p><p>[root@hostA ~]#  mmperfmon query cpu -N hostB
<p><p>Legend:
<p> 1: <a href="http://hostb.nersc.gov/" target="_blank"><u><font color="#0000FF">hostB.nersc.gov</font></u></a>|CPU|cpu_system
<p> 2: <a href="http://hostb.nersc.gov/" target="_blank"><u><font color="#0000FF">hostB.nersc.gov</font></u></a>|CPU|cpu_user
<p> 3: <a href="http://hostb.nersc.gov/" target="_blank"><u><font color="#0000FF">hostB.nersc.gov</font></u></a>|CPU|cpu_contexts
<p> 
<p>Row           Timestamp cpu_system cpu_user cpu_contexts 
<p>  1 2017-05-23-17:03:54       0.54     3.67         4961 
<p>  2 2017-05-23-17:03:55       0.63     3.55         6199 
<p>  3 2017-05-23-17:03:56       1.59     3.76         7914 
<p>  4 2017-05-23-17:03:57       1.38     5.34         5393 
<p>  5 2017-05-23-17:03:58       0.54     2.21         2435 
<p>  6 2017-05-23-17:03:59       0.13     0.29         2519 
<p>  7 2017-05-23-17:04:00       0.13     0.25         2197 
<p>  8 2017-05-23-17:04:01       0.13     0.29         2473 
<p>  9 2017-05-23-17:04:02       0.08     0.21         2336 
<p> 10 2017-05-23-17:04:03       0.13     0.21         2312 
<p><p>[root@ hostB ~]#  mmperfmon query cpu -N hostB
<p><p>Legend:
<p> 1: <a href="http://hostb.nersc.gov/" target="_blank"><u><font color="#0000FF">hostB.nersc.gov</font></u></a>|CPU|cpu_system
<p> 2: <a href="http://hostb.nersc.gov/" target="_blank"><u><font color="#0000FF">hostB.nersc.gov</font></u></a>|CPU|cpu_user
<p> 3: <a href="http://hostb.nersc.gov/" target="_blank"><u><font color="#0000FF">hostB.nersc.gov</font></u></a>|CPU|cpu_contexts
<p> 
<p>Row           Timestamp cpu_system cpu_user cpu_contexts 
<p>  1 2017-05-23-17:04:07       0.13     0.21         2010 
<p>  2 2017-05-23-17:04:08       0.04     0.21         2571 
<p>  3 2017-05-23-17:04:09       0.08     0.25         2766 
<p>  4 2017-05-23-17:04:10       0.13     0.29         3147 
<p>  5 2017-05-23-17:04:11       0.83     0.83         2596 
<p>  6 2017-05-23-17:04:12       0.33     0.54         2530 
<p>  7 2017-05-23-17:04:13       0.08     0.33         2428 
<p>  8 2017-05-23-17:04:14       0.13     0.25         2326 
<p>  9 2017-05-23-17:04:15       0.13     0.29         4190 
<p> 10 2017-05-23-17:04:16       0.58     1.92         5882 
<p><p>[root@ hostB ~]#  mmperfmon query cpu -N hostA
<p><p>Legend:
<p> 1: <a href="http://hosta.nersc.gov/" target="_blank"><u><font color="#0000FF">hostA.nersc.gov</font></u></a>|CPU|cpu_system
<p> 2: <a href="http://hosta.nersc.gov/" target="_blank"><u><font color="#0000FF">hostA.nersc.gov</font></u></a>|CPU|cpu_user
<p> 3: <a href="http://hosta.nersc.gov/" target="_blank"><u><font color="#0000FF">hostA.nersc.gov</font></u></a>|CPU|cpu_contexts
<p> 
<p>Row           Timestamp cpu_system cpu_user cpu_contexts 
<p>  1 2017-05-23-17:05:45       0.33     0.46         7460 
<p>  2 2017-05-23-17:05:46       0.33     0.42         8993 
<p>  3 2017-05-23-17:05:47       0.42     0.54         8709 
<p>  4 2017-05-23-17:05:48       0.38      0.5         5923 
<p>  5 2017-05-23-17:05:49       0.54     1.46         7381 
<p>  6 2017-05-23-17:05:50       0.58     3.51        10381 
<p>  7 2017-05-23-17:05:51       1.05     1.13        10995 
<p>  8 2017-05-23-17:05:52       0.88     0.92        10855 
<p>  9 2017-05-23-17:05:53        0.5     0.63        10958 
<p> 10 2017-05-23-17:05:54        0.5     0.59        10285 
<p><p>[root@ hostA ~]#  mmperfmon query cpu -N hostA
<p><p>Legend:
<p> 1: <a href="http://hosta.nersc.gov/" target="_blank"><u><font color="#0000FF">hostA.nersc.gov</font></u></a>|CPU|cpu_system
<p> 2: <a href="http://hosta.nersc.gov/" target="_blank"><u><font color="#0000FF">hostA.nersc.gov</font></u></a>|CPU|cpu_user
<p> 3: <a href="http://hosta.nersc.gov/" target="_blank"><u><font color="#0000FF">hostA.nersc.gov</font></u></a>|CPU|cpu_contexts
<p> 
<p>Row           Timestamp cpu_system cpu_user cpu_contexts 
<p>  1 2017-05-23-17:05:50       0.58     3.51        10381 
<p>  2 2017-05-23-17:05:51       1.05     1.13        10995 
<p>  3 2017-05-23-17:05:52       0.88     0.92        10855 
<p>  4 2017-05-23-17:05:53        0.5     0.63        10958 
<p>  5 2017-05-23-17:05:54        0.5     0.59        10285 
<p>  6 2017-05-23-17:05:55       0.46     0.63        11621 
<p>  7 2017-05-23-17:05:56       0.84     0.92        11477 
<p>  8 2017-05-23-17:05:57       1.47     1.88        11084 
<p>  9 2017-05-23-17:05:58       0.46     1.76         9125 
<p> 10 2017-05-23-17:05:59       0.42     0.63        11745 
<p><tt><font size="2">_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><tt><font size="2"><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></tt><tt><font size="2"><br></font></tt><p><BR>
</body></html>