<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; color: rgb(0, 0, 0); font-size: 14px; font-family: Calibri, sans-serif;">
<div>We see it on all four of the nodes, and yet we did some getent passwd/getent group stuff on them to verify that identity is working OK.</div>
<div><br>
</div>
<div>Simon</div>
<div><br>
</div>
<span id="OLK_SRC_BODY_SECTION">
<div style="font-family:Calibri; font-size:11pt; text-align:left; color:black; BORDER-BOTTOM: medium none; BORDER-LEFT: medium none; PADDING-BOTTOM: 0in; PADDING-LEFT: 0in; PADDING-RIGHT: 0in; BORDER-TOP: #b5c4df 1pt solid; BORDER-RIGHT: medium none; PADDING-TOP: 3pt">
<span style="font-weight:bold">From: </span><<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org">gpfsug-discuss-bounces@spectrumscale.org</a>> on behalf of Bill Pappas <<a href="mailto:bpappas@dstonline.com">bpappas@dstonline.com</a>><br>
<span style="font-weight:bold">Reply-To: </span>"<a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a>" <<a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a>><br>
<span style="font-weight:bold">Date: </span>Monday, 19 December 2016 at 15:59<br>
<span style="font-weight:bold">To: </span>"<a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a>" <<a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a>><br>
<span style="font-weight:bold">Subject: </span>Re: [gpfsug-discuss] SMB issues<br>
</div>
<div><br>
</div>
<div><style type="text/css" style="display:none;"><!-- P {margin-top:0;margin-bottom:0;} --></style>
<div dir="ltr">
<div id="divtagdefaultwrapper" style="font-size:12pt;color:#000000;font-family:Calibri,Arial,Helvetica,sans-serif;" dir="ltr">
<p><br>
</p>
<p>What I would do is when you identify this issue again, determine which IP address (which samba server) is serving up the CIFS share.  Then as root, log on to that samna node and typr "id <username>" for the user which has this issue.  Are they in all the
 security groups you'd expect, in particular, the group required to access the folder in question?</p>
<p><br>
</p>
<p><br>
</p>
<div id="Signature">
<div id="divtagdefaultwrapper" style="font-size:12pt; color:#000000; background-color:#FFFFFF; font-family:Calibri,Arial,Helvetica,sans-serif">
<p>Bill Pappas</p>
<p>901-619-0585</p>
<p><a href="mailto:bpappas@dstonline.com">bpappas@dstonline.com</a></p>
<p><br>
</p>
<p><img class="EmojiInsert" alt="1466780990050_DSTlogo.png" src="cid:be4cb04f-1c53-4cd5-9891-0c755016532b"><br>
</p>
<p><br>
</p>
<p><img class="EmojiInsert" alt="http://www.prweb.com/releases/2016/06/prweb13504050.htm" src="cid:c1333238-490b-48bb-9095-619dc622a143"><br>
</p>
<p><a href="http://www.prweb.com/releases/2016/06/prweb13504050.htm" class="OWAAutoLink" id="LPNoLP">http://www.prweb.com/releases/2016/06/prweb13504050.htm</a><br>
</p>
</div>
</div>
<br>
<br>
<div style="color: rgb(0, 0, 0);">
<div>
<hr tabindex="-1" style="display:inline-block; width:98%">
<div id="x_divRplyFwdMsg" dir="ltr"><font style="font-size:11pt" color="#000000" face="Calibri,sans-serif"><b>From:</b>
<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org">gpfsug-discuss-bounces@spectrumscale.org</a> <<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org">gpfsug-discuss-bounces@spectrumscale.org</a>> on behalf of
<a href="mailto:gpfsug-discuss-request@spectrumscale.org">gpfsug-discuss-request@spectrumscale.org</a> <<a href="mailto:gpfsug-discuss-request@spectrumscale.org">gpfsug-discuss-request@spectrumscale.org</a>><br>
<b>Sent:</b> Monday, December 19, 2016 9:41 AM<br>
<b>To:</b> <a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a><br>
<b>Subject:</b> gpfsug-discuss Digest, Vol 59, Issue 40</font>
<div> </div>
</div>
</div>
<font size="2"><span style="font-size:10pt;">
<div class="PlainText">Send gpfsug-discuss mailing list submissions to<br>
        <a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>
or, via email, send a message with subject or body 'help' to<br>
        <a href="mailto:gpfsug-discuss-request@spectrumscale.org">gpfsug-discuss-request@spectrumscale.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:gpfsug-discuss-owner@spectrumscale.org">gpfsug-discuss-owner@spectrumscale.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than "Re: Contents of gpfsug-discuss digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1. SMB issues (Simon Thompson (Research Computing - IT Services))<br>
   2. Re: Tiers (Buterbaugh, Kevin L)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Mon, 19 Dec 2016 15:36:50 +0000<br>
From: "Simon Thompson (Research Computing - IT Services)"<br>
        <<a href="mailto:S.J.Thompson@bham.ac.uk">S.J.Thompson@bham.ac.uk</a>><br>
To: "<a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a>"<br>
        <<a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a>><br>
Subject: [gpfsug-discuss] SMB issues<br>
Message-ID: <<a href="mailto:D47DAF11.34457%s.j.thompson@bham.ac.uk">D47DAF11.34457%s.j.thompson@bham.ac.uk</a>><br>
Content-Type: text/plain; charset="us-ascii"<br>
<br>
Hi All,<br>
<br>
We upgraded to 4.2.2.0 last week as well as to<br>
gpfs.smb-4.4.6_gpfs_8-1.el7.x86_64.rpm from the 4.2.2.0 protocols bundle.<br>
<br>
We've since been getting random users reporting that they get access<br>
denied errors when trying to access folders. Some seem to work fine and<br>
others not, but it seems to vary and change by user (for example this<br>
morning, I could see all my folders fine, but later I could only see<br>
some). From my Mac connecting to the SMB shares, I could connect fine to<br>
the share, but couldn't list files in the folder (I guess this is what<br>
users were seeing from Windows as access denied).<br>
<br>
In the log.smbd, we are seeing errors such as this:<br>
<br>
[2016/12/19 15:20:40.649580,  0]<br>
../source3/lib/sysquotas.c:457(sys_get_quota)<br>
  sys_path_to_bdev() failed for path [FOLDERNAME_HERE]!<br>
<br>
<br>
<br>
Reverting to the previous version of SMB we were running<br>
(gpfs.smb-4.3.9_gpfs_21-1.el7.x86_64), the problems go away.<br>
<br>
Before I log a PMR, has anyone else seen this behaviour or have any<br>
suggestions?<br>
<br>
Thanks<br>
<br>
Simon<br>
<br>
<br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Mon, 19 Dec 2016 15:40:50 +0000<br>
From: "Buterbaugh, Kevin L" <<a href="mailto:Kevin.Buterbaugh@Vanderbilt.Edu">Kevin.Buterbaugh@Vanderbilt.Edu</a>><br>
To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a>><br>
Subject: Re: [gpfsug-discuss] Tiers<br>
Message-ID: <<a href="mailto:25B04F2E-21FD-44EF-B15B-8317DE9EF68E@vanderbilt.edu">25B04F2E-21FD-44EF-B15B-8317DE9EF68E@vanderbilt.edu</a>><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
Hi Brian,<br>
<br>
We?re probably an outlier on this (Bob?s case is probably much more typical) but we can get away with doing weekly migrations based on file atime.  Some thoughts:<br>
<br>
1.  absolutely use QOS!  It?s one of the best things IBM has ever added to GPFS.<br>
2.  personally, I limit even my capacity pool to no more than 98% capacity.  I just don?t think it?s a good idea to 100% fill anything.<br>
3.  if you do use anything like atime or mtime as your criteria, don?t forget to have a rule to move stuff back from the capacity pool if it?s now being used.<br>
4.  we also help manage a DDN device and there they do also implement a rule to move stuff if the ?fast? pool exceeds a certain threshold ? but they use file size as the weight.  Not saying that?s right or wrong, it?s just another approach.<br>
<br>
HTHAL?<br>
<br>
Kevin<br>
<br>
On Dec 19, 2016, at 9:25 AM, Oesterlin, Robert <<a href="mailto:Robert.Oesterlin@nuance.com">Robert.Oesterlin@nuance.com</a><<a href="mailto:Robert.Oesterlin@nuance.com>">mailto:Robert.Oesterlin@nuance.com></a>> wrote:<br>
<br>
I tend to do migration based on ?file heat?, moving the least active files to HDD and more active to SSD. Something simple like this:<br>
<br>
rule grpdef GROUP POOL gpool IS ssd LIMIT(75) THEN disk<br>
rule repack<br>
  MIGRATE FROM POOL gpool TO POOL gpool<br>
  WEIGHT(FILE_HEAT)<br>
<br>
Bob Oesterlin<br>
Sr Principal Storage Engineer, Nuance<br>
<br>
<br>
<br>
<br>
From: <<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org">gpfsug-discuss-bounces@spectrumscale.org</a><<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org>">mailto:gpfsug-discuss-bounces@spectrumscale.org></a>> on behalf of Brian Marshall <<a href="mailto:mimarsh2@vt.edu">mimarsh2@vt.edu</a><<a href="mailto:mimarsh2@vt.edu>">mailto:mimarsh2@vt.edu></a>><br>
Reply-To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a><<a href="mailto:gpfsug-discuss@spectrumscale.org>">mailto:gpfsug-discuss@spectrumscale.org></a>><br>
Date: Monday, December 19, 2016 at 9:15 AM<br>
To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a><<a href="mailto:gpfsug-discuss@spectrumscale.org>">mailto:gpfsug-discuss@spectrumscale.org></a>><br>
Subject: [EXTERNAL] Re: [gpfsug-discuss] Tiers<br>
<br>
We are in very similar situation.  VT - ARC has a layer of SSD for metadata only,  another layer of SSD for "hot" data, and a layer of 8TB HDDs for capacity.   We just now in the process of getting it all into production.<br>
<br>
On this topic:<br>
<br>
What is everyone's favorite migration policy to move data from SSD to HDD (and vice versa)?<br>
<br>
Do you nightly move large/old files to HDD or wait until the fast tier hit some capacity limit?<br>
<br>
Do you use QOS to limit the migration from SSD to HDD i.e. try not to kill the file system with migration work?<br>
<br>
<br>
Thanks,<br>
Brian Marshall<br>
<br>
On Thu, Dec 15, 2016 at 4:25 PM, Buterbaugh, Kevin L <<a href="mailto:Kevin.Buterbaugh@vanderbilt.edu">Kevin.Buterbaugh@vanderbilt.edu</a><<a href="mailto:Kevin.Buterbaugh@vanderbilt.edu>">mailto:Kevin.Buterbaugh@vanderbilt.edu></a>> wrote:<br>
Hi Mark,<br>
<br>
We just use an 8 Gb FC SAN.  For the data pool we typically have a dual active-active controller storage array fronting two big RAID 6 LUNs and 1 RAID 1 (for /home).  For the capacity pool, it might be the same exact model of controller, but the two controllers
 are now fronting that whole 60-bay array.<br>
<br>
But our users tend to have more modest performance needs than most?<br>
<br>
Kevin<br>
<br>
On Dec 15, 2016, at 3:19 PM, <a href="mailto:Mark.Bush@siriuscom.com">Mark.Bush@siriuscom.com</a><<a href="mailto:Mark.Bush@siriuscom.com">mailto:Mark.Bush@siriuscom.com</a>> wrote:<br>
<br>
Kevin, out of curiosity, what type of disk does your data pool use?  SAS or just some SAN attached system?<br>
<br>
From: <<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org">gpfsug-discuss-bounces@spectrumscale.org</a><<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org>">mailto:gpfsug-discuss-bounces@spectrumscale.org></a>> on behalf of "Buterbaugh, Kevin L"
 <<a href="mailto:Kevin.Buterbaugh@Vanderbilt.Edu">Kevin.Buterbaugh@Vanderbilt.Edu</a><<a href="mailto:Kevin.Buterbaugh@Vanderbilt.Edu>">mailto:Kevin.Buterbaugh@Vanderbilt.Edu></a>><br>
Reply-To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a><<a href="mailto:gpfsug-discuss@spectrumscale.org>">mailto:gpfsug-discuss@spectrumscale.org></a>><br>
Date: Thursday, December 15, 2016 at 2:47 PM<br>
To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org">gpfsug-discuss@spectrumscale.org</a><<a href="mailto:gpfsug-discuss@spectrumscale.org>">mailto:gpfsug-discuss@spectrumscale.org></a>><br>
Subject: Re: [gpfsug-discuss] Tiers<br>
<br>
Hi Mark,<br>
<br>
We?re a ?traditional? university HPC center with a very untraditional policy on our scratch filesystem ? we don?t purge it and we sell quota there.  Ultimately, a lot of that disk space is taken up by stuff that, let?s just say, isn?t exactly in active use.<br>
<br>
So what we?ve done, for example, is buy a 60-bay storage array and stuff it with 8 TB drives.  It wouldn?t offer good enough performance for actively used files, but we use GPFS policies to migrate files to the ?capacity? pool based on file atime.  So we have
 3 pools:<br>
<br>
1.  the system pool with metadata only (on SSDs)<br>
2.  the data pool, which is where actively used files are stored and which offers decent performance<br>
3.  the capacity pool, for data which hasn?t been accessed ?recently?, and which is on slower storage<br>
<br>
I would imagine others do similar things.  HTHAL?<br>
<br>
Kevin<br>
<br>
On Dec 15, 2016, at 2:32 PM, <a href="mailto:Mark.Bush@siriuscom.com">Mark.Bush@siriuscom.com</a><<a href="mailto:Mark.Bush@siriuscom.com">mailto:Mark.Bush@siriuscom.com</a>> wrote:<br>
<br>
Just curious how many of you out there deploy SS with various tiers?  It seems like a lot are doing the system pool with SSD?s but do you routinely have clusters that have more than system pool and one more tier?<br>
<br>
I know if you are doing Archive in connection that?s an obvious choice for another tier but I?m struggling with knowing why someone needs more than two tiers really.<br>
<br>
I?ve read all the fine manuals as to how to do such a thing and some of the marketing as to maybe why.  I?m still scratching my head on this though.  In fact, my understanding is in the ESS there isn?t any different pools (tiers) as it?s all NL-SAS or SSD (DF150,
 etc).<br>
<br>
It does make sense to me know with TCT and I could create an ILM policy to get some of my data into the cloud.<br>
<br>
But in the real world I would like to know what yall do in this regard.<br>
<br>
<br>
Thanks<br>
<br>
Mark<br>
<br>
This message (including any attachments) is intended only for the use of the individual or entity to which it is addressed and may contain information that is non-public, proprietary, privileged, confidential, and exempt from disclosure under applicable law.
 If you are not the intended recipient, you are hereby notified that any use, dissemination, distribution, or copying of this communication is strictly prohibited. This message may be viewed by parties at Sirius Computer Solutions other than those named in
 the message header. This message does not contain an official representation of Sirius Computer Solutions. If you have received this communication in error, notify Sirius Computer Solutions immediately and (i) destroy this message if a facsimile or (ii) delete
 this message immediately if this is an electronic communication. Thank you.<br>
Sirius Computer Solutions<<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__www.siriuscom.com_&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=ApfdK36fjx8EPle4P0_HHozWlQgTEFSkvigVGHY-94U&e=">https://urldefense.proofpoint.com/v2/url?u=http-3A__www.siriuscom.com_&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=ApfdK36fjx8EPle4P0_HHozWlQgTEFSkvigVGHY-94U&e=</a>><br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at spectrumscale.org<<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__spectrumscale.org_&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=rtkufzJTlSLEaFc-2qGxOm33u9-5xYdReXP2nuL6KLM&e=">https://urldefense.proofpoint.com/v2/url?u=http-3A__spectrumscale.org_&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=rtkufzJTlSLEaFc-2qGxOm33u9-5xYdReXP2nuL6KLM&e=</a>><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss<https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=bU09EKmlGWP0q6ENn-SjisUJ3b-BFCitjbUPWfLMhUc&e=">http://gpfsug.org/mailman/listinfo/gpfsug-discuss<https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=bU09EKmlGWP0q6ENn-SjisUJ3b-BFCitjbUPWfLMhUc&e=</a>><br>
<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at spectrumscale.org<<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__spectrumscale.org_&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=rtkufzJTlSLEaFc-2qGxOm33u9-5xYdReXP2nuL6KLM&e=">https://urldefense.proofpoint.com/v2/url?u=http-3A__spectrumscale.org_&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=rtkufzJTlSLEaFc-2qGxOm33u9-5xYdReXP2nuL6KLM&e=</a>><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss<https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=bU09EKmlGWP0q6ENn-SjisUJ3b-BFCitjbUPWfLMhUc&e=">http://gpfsug.org/mailman/listinfo/gpfsug-discuss<https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=bU09EKmlGWP0q6ENn-SjisUJ3b-BFCitjbUPWfLMhUc&e=</a>><br>
<br>
<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at spectrumscale.org<<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__spectrumscale.org&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=bZPT0Z1zNEbNctrugxAQ_G6wpNfuJFzNpfawDym_G9U&e=">https://urldefense.proofpoint.com/v2/url?u=http-3A__spectrumscale.org&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=bZPT0Z1zNEbNctrugxAQ_G6wpNfuJFzNpfawDym_G9U&e=</a>><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss<https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=bU09EKmlGWP0q6ENn-SjisUJ3b-BFCitjbUPWfLMhUc&e=">http://gpfsug.org/mailman/listinfo/gpfsug-discuss<https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DgMFaQ&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=2V9MbsY4SgTRmE8kIq6GQAq0owTDl_XMhRmx6pH61Os&s=bU09EKmlGWP0q6ENn-SjisUJ3b-BFCitjbUPWfLMhUc&e=</a>><br>
<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at spectrumscale.org<<a href="http://spectrumscale.org/">http://spectrumscale.org/</a>><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20161219/0059c648/attachment.html">http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20161219/0059c648/attachment.html</a>><br>
<br>
------------------------------<br>
<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at spectrumscale.org<br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>
<br>
<br>
End of gpfsug-discuss Digest, Vol 59, Issue 40<br>
**********************************************<br>
</div>
</span></font></div>
</div>
</div>
</div>
</span>
</body>
</html>