<div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div dir="ltr" >Daniel and Peter,</div>
<div dir="ltr" >Thanks for your questions and interest in cloud tiering  I can confirm that cloud tiering isn't currently supported on zLinux.  It's something we're considering now for future releases.</div>
<div dir="ltr" > </div>
<div dir="ltr" >I will be speaking at the user's group meeting in Denver on the topic of the scalability of TCT.  You'll find that the upcoming Scale release is a major upgrade of TCT with the goal of allowing Scale users to employ TCT at larger Scales and for more types of clusters.</div>
<div dir="ltr" > </div>
<div dir="ltr" >Regards,</div>
<div dir="ltr" >Rob Basham<br><br>MCStore and IBM Ready Archive architecture<br>971-344-1999</div>
<div dir="ltr" > </div>
<blockquote data-history-content-modified="1" data-history-expanded="1" dir="ltr" style="border-left:solid #aaaaaa 2px; margin-left:5px; padding-left:5px; direction:ltr; margin-right:0px" ><br><font size="2" color="#5F5F5F" >From: </font><font size="2" >"Daniel Kidger" <daniel.kidger@uk.ibm.com></font><br><font size="2" color="#5F5F5F" >To: </font><font size="2" >"gpfsug main discussion list" <gpfsug-discuss@spectrumscale.org></font><br><font size="2" color="#5F5F5F" >Date: </font><font size="2" >11/06/2017 04:37 AM</font><br><font size="2" color="#5F5F5F" >Subject: </font><font size="2" >Re: [gpfsug-discuss] Introduction/Question</font><br><font size="2" color="#5F5F5F" >Sent by: </font><font size="2" >gpfsug-discuss-bounces@spectrumscale.org</font>
<hr style="color:#8091A5; " width="100%" size="2" align="left" ><br><br><br><font size="3" >Peter,</font><br><font size="3" >Welcome to the mailing list!</font><br><br><font size="3" >Can I summarise in saying that you are looking for a way for GPFS to recognise that a file has just arrived in the filesystem (via FTP) and so trigger an action, in this case to trigger to push to Amazon S3 ?</font><br><br><font size="3" >I think that you also have a second question about coping with the restrictions on GPFS on zLinux?</font><br><font size="3" >ie CES is not supported and hence TCT isn’t either. </font><br><br><font size="3" >Looking at the docs, there appears to be many restrictions on TCT for MultiCluster, AFM, Heterogeneous setups,  DMAPI tape tiers, etc.</font><br><font size="3" >So my question to add is; what success have people had in using a TCT in more than the simplest use case of a single small isolated x86 cluster?</font><br><br><font size="3" >Daniel</font><br><img alt="/spectrum_storage-banne" src="cid:15099587293244"  height="5" width="601" ><br> 
<table cellspacing="0" cellpadding="0" border="0" >        <tbody>                <tr valign="top" >                        <td width="75" valign="middle" ><img alt="Spectrum Scale Logo" src="cid:15099587293245"  height="120" width="75" ><br>                        <font size="3" > </font></td>                        <td width="5" valign="middle" ><font size="3" > </font></td>                        <td width="244" valign="middle" ><b><font size="3" >Dr Daniel Kidger</font></b><font size="3" > <br>                        IBM Technical Sales Specialist<br>                        Software Defined Solution Sales</font><br>                        <br>                        <a href="tel:+%2044-7818%20522%20266" target="_blank" ><u><font size="3" color="#0000FF" >+</font></u></a><font size="3" > </font><a href="tel:+%2044-7818%20522%20266" target="_blank" ><u><font size="3" color="#0000FF" >44-(0)7818 522 266</font></u></a><font size="3" > </font><br>                        <a href="mailto:daniel.kidger@uk.ibm.com" target="_blank" ><u><font size="3" color="#0000FF" >daniel.kidger@uk.ibm.com</font></u></a></td>                </tr>        </tbody></table><br><font size="3" >On 6 Nov 2017, at 09:20, Chase, Peter <</font><a href="mailto:peter.chase@metoffice.gov.uk" target="_blank" ><u><font size="3" color="#0000FF" >peter.chase@metoffice.gov.uk</font></u></a><font size="3" >> wrote:</font>
<ul style="padding-left: 36pt; margin-left: 0px; list-style-type: none;" >        <li><font face="Calibri" size="3" >Hello to all!</font><br>        <font face="Calibri" size="3" > </font><br>        <font face="Calibri" size="3" >I’m pleased to have joined the GPFS UG mailing list, I’m experimenting with GPFS on zLinux running in z/VM on a z13 mainframe. I work for the UK Met Office in the GPCS team (general purpose compute service/mainframe team) and I’m based in Exeter, Devon.</font><br>        <font face="Calibri" size="3" > </font><br>        <font face="Calibri" size="3" >I’ve joined with a specific question to ask, in short: how can I automate sending files to a cloud object store as they arrive in GPFS and keep a copy of the file in GPFS?</font><br>        <font face="Calibri" size="3" > </font><br>        <font face="Calibri" size="3" >The longer spiel is this: We have a HPC that throws out a lot of NetCDF files via FTP for use in forecasts. We’re currently undergoing a change in working practice, so that data processing is beginning to be done in the cloud.  At the same time we’re also attempting to de-duplicate the data being sent from the HPC by creating one space to receive it and then have consumers use it or send it on as necessary from there. The data is in terabytes a day sizes, and the timeliness of it’s arrival to systems is fairly important (forecasts cease to be forecasts if they’re too late).</font><br>        <font face="Calibri" size="3" > </font><br>        <font face="Calibri" size="3" >We’re using zLinux because the mainframe already receives much of the data from the HPC and has access to a SAN with SSD storage, has the right network connections it needs and generally seems the least amount of work to put something in place.</font><br>        <font face="Calibri" size="3" > </font><br>        <font face="Calibri" size="3" >Getting a supported clustered filesystem on zLinux is tricky, but GPFS fits the bill and having hardware, storage, OS and filesystem from one provider (IBM) should hopefully save some headaches.</font><br>        <font face="Calibri" size="3" > </font><br>        <font face="Calibri" size="3" >We’re using Amazon as our cloud provider, and have 2x10GB direct links to their London data centre with a ping of about 15ms, so fairly low latency. The developers using the data want it in s3 so they can access it from server-less environments and won’t need to have ec2 instances loitering to look after the data.</font><br>        <font face="Calibri" size="3" > </font><br>        <font face="Calibri" size="3" >We were initially interested in using mmcloudgateway/cloud data sharing to send the data, but it’s not available for s390x (only x86_64), so I’m now looking at setting up a external storage pool for talking to s3 and then having some kind of ilm soft quota trigger to send the data once enough of it has arrived, but I’m still exploring options. Options such as asking the user group of experienced folks what they think is best!</font><br>        <font face="Calibri" size="3" > </font><br>        <font face="Calibri" size="3" >So, any help or advice would be greatly appreciated!</font><br>        <font face="Calibri" size="3" > </font><br>        <font face="Arial" size="2" >Regards,</font><br>        <font face="Arial" size="2" > </font><br>        <font face="Arial" size="2" >Peter Chase</font><br>        <font face="Arial" size="2" >GPCS Team</font><br>        <b><font face="Arial" size="2" >Met Office</font></b><font face="Arial" size="2" >  FitzRoy Road  Exeter  Devon  EX1 3PB  United Kingdom<br>        Email: </font><a href="mailto:peter.chase@metoffice.gov.uk" target="_blank" ><u><font face="Arial" size="2" color="#0000FF" >peter.chase@metoffice.gov.uk</font></u></a><font face="Arial" size="2" > Website: </font><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__www.metoffice.gov.uk_&d=DwMFAg&c=jf_iaSHvJObTbx-siA1ZOg&r=HlQDuUjgJx4p54QzcXd0_zTwf4Cr2t3NINalNhLTA2E&m=VROcTX7EGX3nMCrA4Fo8z_fF3FS-_spcsHWA_5yaFoI&s=ZAJHU7jKJurmtK-6BjfWOcAPWzl38GcfBfXqD25JPxw&e=" target="_blank" ><u><font face="Arial" size="2" color="#0000FF" >www.metoffice.gov.uk</font></u></a><font face="Arial" size="2" > </font><br>        <font face="Calibri" size="3" > </font></li></ul><br><font size="3" >Unless stated otherwise above:<br>IBM United Kingdom Limited - Registered in England and Wales with number 741598.<br>Registered office: PO Box 41, North Harbour, Portsmouth, Hampshire PO6 3AU</font><br><tt><font face="" size="3" >_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font></tt><br><tt><font face="" size="3" ><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=p_1XEUyoJ7-VJxF_w8h9gJh8_Wj0Pey73LCLLoxodpw&m=hoF60x1f5Vd2wGUI1fLbWPmjzxNo5NzVbN8Vp7zkrqc&s=CqTF2lOPU6bw9wcnuvBbjdsXYJHB8ZE6yDxskf5XJzI&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=p_1XEUyoJ7-VJxF_w8h9gJh8_Wj0Pey73LCLLoxodpw&m=hoF60x1f5Vd2wGUI1fLbWPmjzxNo5NzVbN8Vp7zkrqc&s=CqTF2lOPU6bw9wcnuvBbjdsXYJHB8ZE6yDxskf5XJzI&e=</a></font></tt></blockquote>
<div dir="ltr" > </div></div>
<BR>