<html><body>
<p><font size="2" face="sans-serif">Hi Simon,</font><br>
<br>
<font size="2" face="sans-serif">This appears to be a mistake, as using clients for the System.log pool should not require a server license (should be similar to lroc).... thanks for opening the PMR...  <br>
Dean Hildebrand<br>
IBM Almaden Research Center<br>
</font><br>
<br>
<img width="16" height="16" src="cid:1__=07BBF43DDFF9DC858f9e8a93df938@us.ibm.com" border="0" alt="Inactive hide details for "Simon Thompson (Research Computing - IT Services)" ---08/27/2015 12:42:47 AM---Hi Dean, Thanks. I wa"><font size="2" color="#424282" face="sans-serif">"Simon Thompson (Research Computing - IT Services)" ---08/27/2015 12:42:47 AM---Hi Dean, Thanks. I wasn't sure if the system.log disks on clients in the remote cluster would be "va</font><br>
<br>
<font size="1" color="#5F5F5F" face="sans-serif">From:      </font><font size="1" face="sans-serif">"Simon Thompson (Research Computing - IT Services)" <S.J.Thompson@bham.ac.uk></font><br>
<font size="1" color="#5F5F5F" face="sans-serif">To:        </font><font size="1" face="sans-serif">gpfsug main discussion list <gpfsug-discuss@gpfsug.org></font><br>
<font size="1" color="#5F5F5F" face="sans-serif">Date:      </font><font size="1" face="sans-serif">08/27/2015 12:42 AM</font><br>
<font size="1" color="#5F5F5F" face="sans-serif">Subject:   </font><font size="1" face="sans-serif">Re: [gpfsug-discuss] Using HAWC (write cache)</font><br>
<font size="1" color="#5F5F5F" face="sans-serif">Sent by:   </font><font size="1" face="sans-serif">gpfsug-discuss-bounces@gpfsug.org</font><br>
<hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br>
<br>
<br>
<font size="2" face="Calibri">Hi Dean,</font><br>
<br>
<font size="2" face="Calibri">Thanks. I wasn't sure if the system.log disks on clients in the remote cluster would be "valid" as they are essentially NSDs in a different cluster from where the storage cluster would be, but it sounds like it is.</font><br>
<br>
<font size="2" face="Calibri">Now if I can just get it working ... Looking in mmfsfuncs:</font><br>
<br>
<font size="1" face="serif">  if [[ $diskUsage != "</font><font size="1" color="#FFFFFF" face="serif">localCache</font><font size="1" face="serif">" ]]</font><br>
<font size="1" face="serif">  then</font><br>
<font size="1" face="serif">    combinedList=${primaryAdminNodeList},${backupAdminNodeList}</font><br>
<font size="1" face="serif">    IFS=","</font><br>
<font size="1" face="serif">    for server in $combinedList</font><br>
<font size="1" face="serif">    do</font><br>
<font size="1" face="serif">      IFS="$IFS_sv"</font><br>
<font size="1" face="serif">      [[ -z $server ]] && continue</font><br>
<br>
<font size="1" face="serif">      $grep -q -e "^${server}$" $serverLicensedNodes > /dev/null 2>&1</font><br>
<font size="1" face="serif">      if [[ $? -ne 0 ]]</font><br>
<font size="1" face="serif">      then</font><br>
<font size="1" face="serif">        # The node does not have a server license.</font><br>
<font size="1" face="serif">        printErrorMsg 118 $mmcmd $server</font><br>
<font size="1" face="serif">        return 1</font><br>
<font size="1" face="serif">      fi</font><br>
<font size="1" face="serif">      IFS=","</font><br>
<font size="1" face="serif">    done  # end for server in ${primaryAdminNodeList},${backupAdminNodeList}</font><br>
<font size="1" face="serif">    IFS="$IFS_sv"</font><br>
<font size="1" face="serif">  fi  # end of if [[ $diskUsage != "</font><font size="1" color="#FFFFFF" face="serif">localCache</font><font size="1" face="serif">" ]]</font>
<p><br>
<font size="2" face="Calibri">So unless the NSD device usage=localCache, then it requires a server License when you try and create the NSD, but localCache cannot have a storage pool assigned.</font><br>
<br>
<font size="2" face="Calibri">I've opened a PMR with IBM.</font><br>
<br>
<font size="2" face="Calibri">Simon</font><br>
<br>
<font size="2" face="Calibri"><b>From: </b></font><font size="2" face="Calibri">Dean Hildebrand <</font><a href="mailto:dhildeb@us.ibm.com"><font size="2" color="#0000FF" face="Calibri"><u>dhildeb@us.ibm.com</u></font></a><font size="2" face="Calibri">></font><font size="2" face="Calibri"><b><br>
Reply-To: </b></font><font size="2" face="Calibri">gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@gpfsug.org"><font size="2" color="#0000FF" face="Calibri"><u>gpfsug-discuss@gpfsug.org</u></font></a><font size="2" face="Calibri">></font><font size="2" face="Calibri"><b><br>
Date: </b></font><font size="2" face="Calibri">Thursday, 27 August 2015 01:22</font><font size="2" face="Calibri"><b><br>
To: </b></font><font size="2" face="Calibri">gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@gpfsug.org"><font size="2" color="#0000FF" face="Calibri"><u>gpfsug-discuss@gpfsug.org</u></font></a><font size="2" face="Calibri">></font><font size="2" face="Calibri"><b><br>
Subject: </b></font><font size="2" face="Calibri">Re: [gpfsug-discuss] Using HAWC (write cache)</font><br>

<p><font size="2" face="sans-serif">Hi Simon,</font><font size="2" face="Calibri"><br>
</font><font size="2" face="sans-serif"><br>
HAWC leverages the System.log (or metadata pool if no special log pool is defined) pool.... so its independent of local or multi-cluster modes... small writes will be 'hardened' whereever those pools are defined for the file system.<br>
<br>
Dean Hildebrand<br>
IBM Master Inventor and Manager | Cloud Storage Software<br>
IBM Almaden Research Center</font><font size="2" face="Calibri"><br>
<br>
<br>
</font><img src="cid:1__=07BBF43DDFF9DC858f9e8a93df938@us.ibm.com" width="16" height="16" alt="Inactive hide details for "Simon Thompson (Research Computing - IT Services)" ---08/26/2015 05:58:12 AM---Oh and one other ques"><font size="2" color="#424282" face="sans-serif">"Simon Thompson (Research Computing - IT Services)" ---08/26/2015 05:58:12 AM---Oh and one other question about HAWC, does it work when running multi-cluster? I.e. Can clients in a</font><font size="2" face="Calibri"><br>
</font><font size="1" color="#5F5F5F" face="sans-serif"><br>
From: </font><font size="1" face="sans-serif">"Simon Thompson (Research Computing - IT Services)" <</font><a href="mailto:S.J.Thompson@bham.ac.uk"><font size="1" color="#0000FF" face="sans-serif"><u>S.J.Thompson@bham.ac.uk</u></font></a><font size="1" face="sans-serif">></font><font size="1" color="#5F5F5F" face="sans-serif"><br>
To: </font><font size="1" face="sans-serif">gpfsug main discussion list <</font><a href="mailto:gpfsug-discuss@gpfsug.org"><font size="1" color="#0000FF" face="sans-serif"><u>gpfsug-discuss@gpfsug.org</u></font></a><font size="1" face="sans-serif">></font><font size="1" color="#5F5F5F" face="sans-serif"><br>
Date: </font><font size="1" face="sans-serif">08/26/2015 05:58 AM</font><font size="1" color="#5F5F5F" face="sans-serif"><br>
Subject: </font><font size="1" face="sans-serif">Re: [gpfsug-discuss] Using HAWC (write cache)</font><font size="1" color="#5F5F5F" face="sans-serif"><br>
Sent by: </font><a href="mailto:gpfsug-discuss-bounces@gpfsug.org"><font size="1" color="#0000FF" face="sans-serif"><u>gpfsug-discuss-bounces@gpfsug.org</u></font></a>
<p><hr width="100%" size="2" align="left" noshade><font size="2" face="Calibri"><br>
<br>
</font><font size="2" face="Calibri"><br>
Oh and one other question about HAWC, does it work when running<br>
multi-cluster? I.e. Can clients in a remote cluster have HAWC devices?<br>
<br>
Simon<br>
<br>
On 26/08/2015 12:26, "Simon Thompson (Research Computing - IT Services)"<br>
<</font><a href="mailto:S.J.Thompson@bham.ac.uk"><font size="2" color="#0000FF" face="Calibri"><u>S.J.Thompson@bham.ac.uk</u></font></a><font size="2" face="Calibri">> wrote:<br>
<br>
>Hi,<br>
><br>
>I was wondering if anyone knows how to configure HAWC which was added in<br>
>the 4.1.1 release (this is the hardened write cache)<br>
>(</font><a href="http://www-01.ibm.com/support/knowledgecenter/#!/STXKQY/411/com.ibm.spect"><font size="2" color="#0000FF" face="Calibri"><u>http://www-01.ibm.com/support/knowledgecenter/#!/STXKQY/411/com.ibm.spect</u></font></a><font size="2" face="Calibri"><br>
>r<br>
>um.scale.v4r11.adv.doc/bl1adv_hawc_using.htm)<br>
><br>
>In particular I'm interested in running it on my client systems which have<br>
>SSDs fitted for LROC, I was planning to use a small amount of the LROC SSD<br>
>for HAWC on our hypervisors as it buffers small IO writes, which sounds<br>
>like what we want for running VMs which are doing small IO updates to the<br>
>VM disk images stored on GPFS.<br>
><br>
>The docs are a little lacking in detail of how you create NSD disks on<br>
>clients, I've tried using:<br>
>%nsd: device=sdb2<br>
>  nsd=cl0901u17_hawc_sdb2<br>
>  servers=cl0901u17<br>
>  pool=system.log<br>
>  failureGroup=90117<br>
><br>
>(and also with usage=metadataOnly as well), however mmcrsnd -F tells me<br>
>"mmcrnsd: Node cl0903u29.climb.cluster does not have a GPFS server license<br>
>designation"<br>
><br>
><br>
>Which is correct as its a client system, though HAWC is supposed to be<br>
>able to run on client systems. I know for LROC you have to set<br>
>usage=localCache, is there a new value for using HAWC?<br>
><br>
>I'm also a little unclear about failureGroups for this. The docs suggest<br>
>setting the HAWC to be replicated for client systems, so I guess that<br>
>means putting each client node into its own failure group?<br>
><br>
>Thanks<br>
><br>
>Simon<br>
><br>
>_______________________________________________<br>
>gpfsug-discuss mailing list<br>
>gpfsug-discuss at gpfsug.org<br>
></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size="2" color="#0000FF" face="Calibri"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><font size="2" face="Calibri"><br>
<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at gpfsug.org</font><font size="2" color="#0000FF" face="Calibri"><u><br>
</u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><font size="2" color="#0000FF" face="Calibri"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><font size="2" face="Calibri"><br>
</font><font size="2" face="Calibri"><br>
<br>
</font><tt><font size="2">_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at gpfsug.org<br>
</font></tt><tt><font size="2"><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></font></tt><tt><font size="2"><br>
</font></tt><br>
<font size="2" face="sans-serif">[attachment "graycol.gif" deleted by Dean Hildebrand/Almaden/IBM] </font><br>
</body></html>