<html><body><p>Just adding in that with HAWC, you can also use a shared fast storage device (instead of a node local SSD).  So, for example, if you already have your metadata stored in a shared SSD server, then you can just enable HAWC without any additional replication requirements.<br><br>Dean <br><br><img width="16" height="16" src="cid:1__=07BB0AF7DFF941DD8f9e8a93df938690918c07B@" border="0" alt="Inactive hide details for Sven Oehme ---11/05/2016 09:18:27 AM---Yes and no :) While olaf is right, it needs two independent bl"><font color="#424282">Sven Oehme ---11/05/2016 09:18:27 AM---Yes and no :) While olaf is right, it needs two independent blockdevices, partitions are</font><br><br><font size="2" color="#5F5F5F">From:        </font><font size="2">Sven Oehme <oehmes@gmail.com></font><br><font size="2" color="#5F5F5F">To:        </font><font size="2">gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><br><font size="2" color="#5F5F5F">Date:        </font><font size="2">11/05/2016 09:18 AM</font><br><font size="2" color="#5F5F5F">Subject:        </font><font size="2">Re: [gpfsug-discuss] HAWC and LROC</font><br><font size="2" color="#5F5F5F">Sent by:        </font><font size="2">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br><br><br><font size="4">Yes and no :)</font><br><br><font size="4">While olaf is right, it needs two independent blockdevices, partitions are just fine.</font><br><font size="4">So one could have in fact have a 200g ssd as a boot device and partitions it lets say </font><br><br><font size="4">30g os</font><br><font size="4">20g hawc</font><br><font size="4">150g lroc</font><br><br><font size="4">you have to keep in mind that lroc and hawc have 2 very different requirements on the 'device'. if you loose hawc, you loose one copy of critical data (that's why the log needs to be replicated), if you loose lroc, you only loose cached data stored somewhere else, so the recommendation is to use soemwhat reliable 'devices' for hawc, while for lroc it could be simple consumer grade ssd's.</font><br><font size="4">So if you use one for both, it should be reliable.</font><br><br><font size="4">Sven<br></font><br><font size="4">On Sat, Nov 5, 2016, 6:40 AM Olaf Weiser <</font><a href="mailto:olaf.weiser@de.ibm.com"><u><font size="4" color="#0000FF">olaf.weiser@de.ibm.com</font></u></a><font size="4">> wrote:</font><ul><font size="4" face="Helvetica">You can use both -HAWC ,LROC- on the same node... but you need dedicated ,independent ,block devices ...<br>In addition for hawc, you could consider replication and use 2 devices, even across 2 nodes. ...<br><br>Gesendet von IBM Verse</font><font size="4"><br></font><br><font size="4" color="#424282">leslie elliott --- [gpfsug-discuss] HAWC and LROC --- </font><br><br>
<table class="gmail_msg" width="100%" border="0" cellspacing="0" cellpadding="0"><tr valign="top"><td class="gmail_msg" width="10%"><font color="#5F5F5F">Von:</font></td><td class="gmail_msg" width="90%">"leslie elliott" <<a href="mailto:leslie.james.elliott@gmail.com" target="_blank"><u><font color="#0000FF">leslie.james.elliott@gmail.com</font></u></a>></td></tr>
<tr valign="top"><td class="gmail_msg" width="10%"><font color="#5F5F5F">An:</font></td><td class="gmail_msg" width="90%">"gpfsug main discussion list" <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank"><u><font color="#0000FF">gpfsug-discuss@spectrumscale.org</font></u></a>></td></tr>
<tr valign="top"><td class="gmail_msg" width="10%"><font color="#5F5F5F">Datum:</font></td><td class="gmail_msg" width="90%">Sa. 05.11.2016 02:09</td></tr>
<tr valign="top"><td class="gmail_msg" width="10%"><font color="#5F5F5F">Betreff:</font></td><td class="gmail_msg" width="90%">[gpfsug-discuss] HAWC and LROC</td></tr></table><hr width="100%" size="2" align="left" noshade class="gmail_msg"><br><br><font size="4">Hi I am curious if anyone has run these together on a client and whether it helped </font><br><br><font size="4">If we wanted to have these functions out at the client to optimise compute IO in a couple of special cases  </font><br><br><font size="4">can both exist at the same time on the same nonvolatile hardware or do the two functions need independent devices</font><br><br><font size="4">and what would be the process to disestablish them on the clients as the requirement was satisfied </font><br><br><font size="4">thanks</font><br><br><font size="4">leslie</font><br><br><font size="4">_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at </font><a href="http://spectrumscale.org/" target="_blank"><u><font size="4" color="#0000FF">spectrumscale.org</font></u></a><u><font size="4" color="#0000FF"><br></font></u><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" target="_blank"><u><font size="4" color="#0000FF">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></u></a><tt>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></tt><tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></tt><tt><br></tt><br><br></ul><BR>
</body></html>