<div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div dir="ltr" >Specifically with IBM Spectrum Archive EE, there is a script (mmapplypolicy with list rules and python since it outputs many different tables) to provide the total size of user files by file states.  This way you can charge more for files that remain on disk and charge less for files migrated to tape.  I have seen various prices for the chargeback so it's probably better to calculate based on your environment.</div>
<div dir="ltr" > </div>
<div dir="ltr" >The script can easily be changed to output based on GID, filesets, etc.</div>
<div dir="ltr" > </div>
<div dir="ltr" >Here's a snippet of the output (in human-readable units):</div>
<div dir="ltr" ><span style="font-family:Courier New,Courier,monospace;" >+-------+-----------+-------------+-------------+-----------+<br>|  User |  Migrated | Premigrated |   Resident  |   TOTAL   |<br>+-------+-----------+-------------+-------------+-----------+<br>|   0   |  1.563 KB |  50.240 GB  | 6.000 bytes | 50.240 GB |<br>| 27338 |  9.338 TB |   1.566 TB  |  63.555 GB  | 10.965 TB |<br>| 27887 | 58.341 GB |  191.653 KB |             | 58.341 GB |<br>| 27922 |  2.111 MB |             |             |  2.111 MB |<br>| 24089 |  4.657 TB |  22.921 TB  |  433.660 GB | 28.002 TB |<br>| 29657 | 29.219 TB |  32.049 TB  |             | 61.268 TB |<br>| 29210 |  3.057 PB |  399.908 TB |  47.448 TB  |  3.494 PB |<br>| 23326 |  7.793 GB |  257.005 MB |  166.364 MB |  8.207 GB |<br>| TOTAL |  3.099 PB |  456.492 TB |  47.933 TB  |  3.592 PB |<br>+-------+-----------+-------------+-------------+-----------+</span></div>
<div dir="ltr" ><br>Thanks,<br>Khanh<br><br>Khanh Ngo, Tape Storage Test Architect<br>Senior Technical Staff Member and Master Inventor<br><br>Tie-Line 8-321-4802<br>External Phone: (520)799-4802<br>9042/1/1467 Tucson, AZ<br>khanhn@us.ibm.com (internet)<br><br>It's okay to not understand something. It's NOT okay to test something you do NOT understand.<br> </div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<blockquote data-history-content-modified="1" dir="ltr" style="border-left:solid #aaaaaa 2px; margin-left:5px; padding-left:5px; direction:ltr; margin-right:0px" >----- Original message -----<br>From: gpfsug-discuss-request@spectrumscale.org<br>Sent by: gpfsug-discuss-bounces@spectrumscale.org<br>To: gpfsug-discuss@spectrumscale.org<br>Cc:<br>Subject: gpfsug-discuss Digest, Vol 76, Issue 7<br>Date: Thu, May 3, 2018 8:19 AM<br> 
<div><font size="2" face="Default Monospace,Courier New,Courier,monospace" >Send gpfsug-discuss mailing list submissions to<br>gpfsug-discuss@spectrumscale.org<br><br>To subscribe or unsubscribe via the World Wide Web, visit<br><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=</a><br>or, via email, send a message with subject or body 'help' to<br>gpfsug-discuss-request@spectrumscale.org<br><br>You can reach the person managing the list at<br>gpfsug-discuss-owner@spectrumscale.org<br><br>When replying, please edit your Subject line so it is more specific<br>than "Re: Contents of gpfsug-discuss digest..."<br><br><br>Today's Topics:<br><br>   1. Re: Recharging where HSM is used (Sobey, Richard A)<br>   2. Re: Spectrum Scale CES and remote file system mounts<br>      (Mathias Dietz)<br><br><br>----------------------------------------------------------------------<br><br>Message: 1<br>Date: Thu, 3 May 2018 15:02:51 +0000<br>From: "Sobey, Richard A" <r.sobey@imperial.ac.uk><br>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Subject: Re: [gpfsug-discuss] Recharging where HSM is used<br>Message-ID:<br><VI1PR06MB320080BCAB0499AF166A59E4DF870@VI1PR06MB3200.eurprd06.prod.outlook.com><br><br>Content-Type: text/plain; charset="utf-8"<br><br>Stephen, Bryan,<br><br>Thanks for the input, it?s greatly appreciated.<br><br>For us we?re trying ? as many people are ? to drive down the usage of under-the-desk NAS appliances and USB HDDs. We offer space on disk, but you can?t charge for 3TB of storage the same as you would down PC World and many customers don?t understand the difference between what we do, and what a USB disk offers.<br><br>So, offering tape as a medium to store cold data, but not archive data, is one offering we?re just getting round to discussing. The solution is in place. To answer the specific question: for our customers that adopt HSM, how much less should/could/can we charge them per TB. We know how much a tape costs, but we don?t necessarily have the means (or knowledge?) to say that for a given fileset, 80% of the data is on tape. Then you get into 80% of 1TB is not the same as 80% of 10TB.<br><br>Richard<br><br>From: gpfsug-discuss-bounces@spectrumscale.org <gpfsug-discuss-bounces@spectrumscale.org> On Behalf Of Stephen Ulmer<br>Sent: 03 May 2018 14:03<br>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Subject: Re: [gpfsug-discuss] Recharging where HSM is used<br><br>I work for a partner, but I occasionally have to help customers work on cost justification that includes charge-back (or I encourage them to do show-back to alleviate some political concerns).<br><br>I?d also like to see what people are doing around this.<br><br>If I may ask a question, what is the goal for your site? Are you trying to figure out how to charge for the tape space, or to NOT charge the migrated files as resident? Would you (need to) charge for pre-migrated files twice? Are you trying to figure out how to have users pay for recalls? Basically, what costs are you trying to cover? I realize that was not ?a? question? :)<br><br>Also, do you specifically mean TSM HSM, or do you mean GPFS policies and an external storage pool?<br><br>--<br>Stephen<br><br><br><br>On May 3, 2018, at 5:43 AM, Sobey, Richard A <r.sobey@imperial.ac.uk<<a href="mailto:r.sobey@imperial.ac.uk" target="_blank" >mailto:r.sobey@imperial.ac.uk</a>>> wrote:<br><br>Hi all,<br><br>I?d be interested to talk to anyone that is using HSM to move data to tape, (and stubbing the file(s)) specifically any strategies you?ve employed to figure out how to charge your customers (where you do charge anyway) based on usage.<br><br>On-list or off is fine with me.<br><br>Thanks<br>Richard<br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__spectrumscale.org_&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=T_TgIy-09AYM6gPWskPSxePi3tM5MADG_NorJCiEjUI&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__spectrumscale.org_&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=T_TgIy-09AYM6gPWskPSxePi3tM5MADG_NorJCiEjUI&e=</a>><br><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=</a><br><br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_pipermail_gpfsug-2Ddiscuss_attachments_20180503_dcde0c3e_attachment-2D0001.html&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=Kg8NWE_XWsVduKDWJAVO47iYJmhc9Z9kqdMoHkZ-xlE&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_pipermail_gpfsug-2Ddiscuss_attachments_20180503_dcde0c3e_attachment-2D0001.html&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=Kg8NWE_XWsVduKDWJAVO47iYJmhc9Z9kqdMoHkZ-xlE&e=</a>><br><br>------------------------------<br><br>Message: 2<br>Date: Thu, 3 May 2018 17:14:20 +0200<br>From: "Mathias Dietz" <MDIETZ@de.ibm.com><br>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Subject: Re: [gpfsug-discuss] Spectrum Scale CES and remote file<br>system mounts<br>Message-ID:<br><OFE5D1E6A6.3395B08A-ONC1258282.00538CBE-C1258282.0053B576@notes.na.collabserv.com><br><br>Content-Type: text/plain; charset="iso-8859-1"<br><br>yes, deleting all NFS exports which point to a given file system would<br>allow you to unmount it without bringing down the other file systems.<br><br><br>Mit freundlichen Gr??en / Kind regards<br><br>Mathias Dietz<br><br>Spectrum Scale Development - Release Lead Architect (4.2.x)<br>Spectrum Scale RAS Architect<br>---------------------------------------------------------------------------<br>IBM Deutschland<br>Am Weiher 24<br>65451 Kelsterbach<br>Phone: +49 70342744105<br>Mobile: +49-15152801035<br>E-Mail: mdietz@de.ibm.com<br>-----------------------------------------------------------------------------<br>IBM Deutschland Research & Development GmbH<br>Vorsitzender des Aufsichtsrats: Martina Koederitz, Gesch?ftsf?hrung: Dirk<br>WittkoppSitz der Gesellschaft: B?blingen / Registergericht: Amtsgericht<br>Stuttgart, HRB 243294<br><br><br><br>From:   valleru@cbio.mskcc.org<br>To:     gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Date:   03/05/2018 16:41<br>Subject:        Re: [gpfsug-discuss] Spectrum Scale CES and remote file<br>system mounts<br>Sent by:        gpfsug-discuss-bounces@spectrumscale.org<br><br><br><br>Thanks Mathiaz,<br>Yes i do understand the concern, that if one of the remote file systems go<br>down abruptly - the others will go down too.<br><br>However, i suppose we could bring down one of the filesystems before a<br>planned downtime?<br>For example, by unexporting the filesystems on NFS/SMB before the<br>downtime?<br><br>I might not want to be in a situation, where i have to bring down all the<br>remote filesystems because of planned downtime of one of the remote<br>clusters.<br><br>Regards,<br>Lohit<br><br>On May 3, 2018, 7:41 AM -0400, Mathias Dietz <MDIETZ@de.ibm.com>, wrote:<br>Hi Lohit,<br><br>>I am thinking of using a single CES protocol cluster, with remote mounts<br>from 3 storage clusters.<br>Technically this should work fine (assuming all 3 clusters use the same<br>uids/guids). However this has not been tested in our Test lab.<br><br><br>>One thing to watch, be careful if your CES root is on a remote fs, as if<br>that goes away, so do all CES exports.<br>Not only the ces root file system is a concern, the whole CES cluster will<br>go down if any remote file systems with NFS exports is not available.<br>e.g. if remote cluster 1 is not available, the CES cluster will unmount<br>the corresponding file system which will lead to a NFS failure on all CES<br>nodes.<br><br><br>Mit freundlichen Gr??en / Kind regards<br><br>Mathias Dietz<br><br>Spectrum Scale Development - Release Lead Architect (4.2.x)<br>Spectrum Scale RAS Architect<br>---------------------------------------------------------------------------<br>IBM Deutschland<br>Am Weiher 24<br>65451 Kelsterbach<br>Phone: +49 70342744105<br>Mobile: +49-15152801035<br>E-Mail: mdietz@de.ibm.com<br>-----------------------------------------------------------------------------<br>IBM Deutschland Research & Development GmbH<br>Vorsitzender des Aufsichtsrats: Martina Koederitz, Gesch?ftsf?hrung: Dirk<br>WittkoppSitz der Gesellschaft: B?blingen / Registergericht: Amtsgericht<br>Stuttgart, HRB 243294<br><br><br><br>From:        valleru@cbio.mskcc.org<br>To:        gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Date:        01/05/2018 16:34<br>Subject:        Re: [gpfsug-discuss] Spectrum Scale CES and remote file<br>system mounts<br>Sent by:        gpfsug-discuss-bounces@spectrumscale.org<br><br><br><br>Thanks Simon.<br>I will make sure i am careful about the CES root and test nfs exporting<br>more than 2 remote file systems.<br><br>Regards,<br>Lohit<br><br>On Apr 30, 2018, 5:57 PM -0400, Simon Thompson (IT Research Support)<br><S.J.Thompson@bham.ac.uk>, wrote:<br>You have been able to do this for some time, though I think it's only just<br>supported.<br><br>We've been exporting remote mounts since CES was added.<br><br>At some point we've had two storage clusters supplying data and at least 3<br>remote file-systems exported over NFS and SMB.<br><br>One thing to watch, be careful if your CES root is on a remote fs, as if<br>that goes away, so do all CES exports. We do have CES root on a remote fs<br>and it works, just be aware...<br><br>Simon<br>________________________________________<br>From: gpfsug-discuss-bounces@spectrumscale.org<br>[gpfsug-discuss-bounces@spectrumscale.org] on behalf of<br>valleru@cbio.mskcc.org [valleru@cbio.mskcc.org]<br>Sent: 30 April 2018 22:11<br>To: gpfsug main discussion list<br>Subject: [gpfsug-discuss] Spectrum Scale CES and remote file system mounts<br><br>Hello All,<br><br>I read from the below link, that it is now possible to export remote<br>mounts over NFS/SMB.<br><br><a href="https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adv_protocoloverremoteclu.htm" target="_blank" >https://www.ibm.com/support/knowledgecenter/en/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adv_protocoloverremoteclu.htm</a><br><br><br>I am thinking of using a single CES protocol cluster, with remote mounts<br>from 3 storage clusters.<br>May i know, if i will be able to export the 3 remote mounts(from 3 storage<br>clusters) over NFS/SMB from a single CES protocol cluster?<br><br>Because according to the limitations as mentioned in the below link:<br><br><a href="https://www.ibm.com/support/knowledgecenter/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adv_limitationofprotocolonRMT.htm" target="_blank" >https://www.ibm.com/support/knowledgecenter/STXKQY_5.0.0/com.ibm.spectrum.scale.v5r00.doc/bl1adv_limitationofprotocolonRMT.htm</a><br><br><br>It says ?You can configure one storage cluster and up to five protocol<br>clusters (current limit).?<br><br><br>Regards,<br>Lohit<br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=</a><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=</a><br><br><br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=</a><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=</a><br><br><br><br><br><br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_pipermail_gpfsug-2Ddiscuss_attachments_20180503_32718637_attachment.html&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=h50Fy4alAwKdwU5cRNk4JB3q-8f9aTA2mtAfTS3YuRc&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_pipermail_gpfsug-2Ddiscuss_attachments_20180503_32718637_attachment.html&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=h50Fy4alAwKdwU5cRNk4JB3q-8f9aTA2mtAfTS3YuRc&e=</a>><br><br>------------------------------<br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=KV_9f1Z5cuLb_ISUqPwkvwc38LRXRLXwKd7w3_A1HS8&m=lrEfoX8I-iJKZPqhVJc0DTlof2GckqjbexR-HavAMOY&s=kOxgdZpL-0VRJL_Vcpst3jnumGGDVZ4mZ9JL7nW0_eA&e=</a><br><br><br>End of gpfsug-discuss Digest, Vol 76, Issue 7<br>*********************************************</font><br> </div></blockquote>
<div dir="ltr" > </div></div><BR>