<div dir="auto">I'll share something we do when working with the GPFS policy engine so we don't blow out our backups...<div dir="auto"><br></div><div dir="auto">So we use a different backup in solution and have our file system broken down into multiple concurrent streams.</div><div dir="auto"><br></div><div dir="auto">In my policy engine when making major changes to the file system such as encrypting or compressing data I use a where clause such as:</div><div dir="auto">  MOD(INODE, 7)<=dayofweek</div><div dir="auto"><br></div><div dir="auto">When we call mmpolicy I add -M dayofweek=NN.</div><div dir="auto"><br></div><div dir="auto">In this case I'd use cron and pass day of the week.</div><div dir="auto"><br></div><div dir="auto">What this achieves is that on each day I only work on 1/7th of each file system... So that no one backup stream is blown out.  It is cumulative so 7+ will work on 100% of the file system.</div><div dir="auto"><br></div><div dir="auto">It's a nifty trick so figured I'd share it out.</div><div dir="auto"><br></div><div dir="auto">In production we do something more like 40, and set shares to increment by 1 on weekdays and 3 on weekends to distribute workload out over the whole month with more work on the weekends.</div><div dir="auto"><br></div><div dir="auto">Alec</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Feb 7, 2022, 8:39 AM Paul Ward <<a href="mailto:p.ward@nhm.ac.uk">p.ward@nhm.ac.uk</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Backups seem to have settled down.<br>
A workshop with our partner and IBM is in the pipeline.<br>
<br>
<br>
Kindest regards,<br>
Paul<br>
<br>
Paul Ward<br>
TS Infrastructure Architect<br>
Natural History Museum<br>
T: 02079426450<br>
E: <a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a><br>
<br>
<br>
-----Original Message-----<br>
From: <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a> <<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a>> On Behalf Of Paul Ward<br>
Sent: 01 February 2022 12:28<br>
To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale.org</a>><br>
Subject: Re: [gpfsug-discuss] mmbackup file selections<br>
<br>
Not currently set. I'll look into them.<br>
<br>
<br>
Kindest regards,<br>
Paul<br>
<br>
Paul Ward<br>
TS Infrastructure Architect<br>
Natural History Museum<br>
T: 02079426450<br>
E: <a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a><br>
<br>
<br>
-----Original Message-----<br>
From: <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a> <<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a>> On Behalf Of Skylar Thompson<br>
Sent: 26 January 2022 16:50<br>
To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale.org</a>><br>
Subject: Re: [gpfsug-discuss] mmbackup file selections<br>
<br>
Awesome, glad that you found them (I missed them the first time too).<br>
<br>
As for the anomalous changed files, do you have these options set in your client option file?<br>
<br>
skipacl yes<br>
skipaclupdatecheck yes<br>
updatectime yes<br>
<br>
We had similar problems where metadata and ACL updates were interpreted as data changes by mmbackup/dsmc.<br>
<br>
We also have a case open with IBM where mmbackup will both expire and backup a file in the same run, even in the absence of mtime changes, but it's unclear whether that's program error or something with our include/exclude rules. I'd be curious if you're running into that as well.<br>
<br>
On Wed, Jan 26, 2022 at 03:55:48PM +0000, Paul Ward wrote:<br>
> Good call!<br>
> <br>
> Yes they are dot files.<br>
> <br>
> <br>
> New issue.<br>
> <br>
> Mmbackup seems to be backup up the same files over and over without them changing:<br>
> areas are being backed up multiple times.<br>
> The example below is a co-resident file, the only thing that has changed since it was created 20/10/21, is the file has been accessed for backup.<br>
> This file is in the 'changed' list in mmbackup:<br>
> <br>
> This list has just been created:<br>
> -rw-r--r--. 1 root root 6591914 Jan 26 11:12 <br>
> mmbackupChanged.ix.197984.22A38AA7.39.nhmfsa<br>
> <br>
> Listing the last few files in the file (selecting the last one)<br>
> 11:17:52 [root@scale-sk-pn-1 .mmbackupCfg]# tail <br>
> mmbackupChanged.ix.197984.22A38AA7.39.nhmfsa<br>
> "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604556977.png"<br>
> "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557039.png"<br>
> "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557102.png"<br>
> "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557164.png"<br>
> "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557226.png"<br>
> "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557288.png"<br>
> "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557351.png"<br>
> "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557413.png"<br>
> "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557476.png"<br>
> "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png"<br>
> <br>
> Check the file stats (access time just before last backup)<br>
> 11:18:05 [root@scale-sk-pn-1 .mmbackupCfg]# stat "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png"<br>
>   File: '/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png'<br>
>   Size: 545             Blocks: 32         IO Block: 4194304 regular file<br>
> Device: 2bh/43d Inode: 212618897   Links: 1<br>
> Access: (0644/-rw-r--r--)  Uid: (1399613896/NHM\edwab)   Gid: (1399647564/NHM\dg-mbl-urban-nature-project-rw)<br>
> Context: unconfined_u:object_r:unlabeled_t:s0<br>
> Access: 2022-01-25 06:40:58.334961446 +0000<br>
> Modify: 2020-12-01 15:20:40.122053000 +0000<br>
> Change: 2021-10-20 17:55:18.265746459 +0100<br>
> Birth: -<br>
> <br>
> Check if migrated<br>
> 11:18:16 [root@scale-sk-pn-1 .mmbackupCfg]# dsmls "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png"<br>
> File name       : /gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png<br>
> On-line size    : 545<br>
> Used blocks     : 16<br>
> Data Version    : 1<br>
> Meta Version    : 1<br>
> State           : Co-resident<br>
> Container Index : 1<br>
> Base Name       : 34C0B77D20194B0B.EACEB2055F6CAA58.56D56C5F140C8C9D.0000000000000000.2197396D.000000000CAC4E91<br>
> <br>
> Check if immutable<br>
> 11:18:26 [root@scale-sk-pn-1 .mmbackupCfg]# mstat "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png"<br>
> file name:            /gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png<br>
> metadata replication: 2 max 2<br>
> data replication:     2 max 2<br>
> immutable:            no<br>
> appendOnly:           no<br>
> flags:<br>
> storage pool name:    data<br>
> fileset name:         hpc-workspaces-fset<br>
> snapshot name:<br>
> creation time:        Wed Oct 20 17:55:18 2021<br>
> Misc attributes:      ARCHIVE<br>
> Encrypted:            no<br>
> <br>
> Check active and inactive backups (it was backed up yesterday)<br>
> 11:18:52 [root@scale-sk-pn-1 .mmbackupCfg]# dsmcqbi "/gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png"<br>
> IBM Spectrum Protect<br>
> Command Line Backup-Archive Client Interface<br>
>   Client Version 8, Release 1, Level 10.0<br>
>   Client date/time: 01/26/2022 11:19:02<br>
> (c) Copyright by IBM Corporation and other(s) 1990, 2020. All Rights Reserved.<br>
> <br>
> Node Name: SC-PN-SK-01<br>
> Session established with server TSM-JERSEY: Windows<br>
>   Server Version 8, Release 1, Level 10.100<br>
>   Server date/time: 01/26/2022 11:19:02  Last access: 01/26/2022<br>
> 11:07:05<br>
> <br>
> Accessing as node: SCALE<br>
>            Size        Backup Date                Mgmt Class           A/I File<br>
>            ----        -----------                ----------           --- ----<br>
>            545  B  01/25/2022 06:41:17             DEFAULT              A  /gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png<br>
>            545  B  12/28/2021 21:19:18             DEFAULT              I  /gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png<br>
>            545  B  01/04/2022 06:17:35             DEFAULT              I  /gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png<br>
>            545  B  01/04/2022 06:18:05             DEFAULT              I  /gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png<br>
> <br>
> <br>
> It will be backed up again shortly, why?<br>
> <br>
> And it was backed up again:<br>
> # dsmcqbi<br>
> /gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-<br>
> project/audiowaveform/300_40/unp-grounds-01-1604557538.png<br>
> IBM Spectrum Protect<br>
> Command Line Backup-Archive Client Interface<br>
>   Client Version 8, Release 1, Level 10.0<br>
>   Client date/time: 01/26/2022 15:54:09<br>
> (c) Copyright by IBM Corporation and other(s) 1990, 2020. All Rights Reserved.<br>
> <br>
> Node Name: SC-PN-SK-01<br>
> Session established with server TSM-JERSEY: Windows<br>
>   Server Version 8, Release 1, Level 10.100<br>
>   Server date/time: 01/26/2022 15:54:10  Last access: 01/26/2022<br>
> 15:30:03<br>
> <br>
> Accessing as node: SCALE<br>
>            Size        Backup Date                Mgmt Class           A/I File<br>
>            ----        -----------                ----------           --- ----<br>
>            545  B  01/26/2022 12:23:02             DEFAULT              A  /gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png<br>
>            545  B  12/28/2021 21:19:18             DEFAULT              I  /gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png<br>
>            545  B  01/04/2022 06:17:35             DEFAULT              I  /gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png<br>
>            545  B  01/04/2022 06:18:05             DEFAULT              I  /gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png<br>
>            545  B  01/25/2022 06:41:17             DEFAULT              I  /gpfs/nhmfsa/bulk/share/data/mbl/share/workspaces/groups/urban-nature-project/audiowaveform/300_40/unp-grounds-01-1604557538.png<br>
> <br>
> Kindest regards,<br>
> Paul<br>
> <br>
> Paul Ward<br>
> TS Infrastructure Architect<br>
> Natural History Museum<br>
> T: 02079426450<br>
> E: <a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a><br>
> <br>
> <br>
> -----Original Message-----<br>
> From: <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><br>
> <<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a>> On Behalf Of Skylar <br>
> Thompson<br>
> Sent: 24 January 2022 15:37<br>
> To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale.org</a>><br>
> Cc: <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><br>
> Subject: Re: [gpfsug-discuss] mmbackup file selections<br>
> <br>
> Hi Paul,<br>
> <br>
> Did you look for dot files? At least for us on 5.0.5 there's a .list.1.<tsm-node> file while the backups are running:<br>
> <br>
> /gpfs/grc6/.mmbackupCfg/updatedFiles/:<br>
> -r-------- 1 root nickers 6158526821 Jan 23 18:28 .list.1.gpfs-grc6<br>
> /gpfs/grc6/.mmbackupCfg/expiredFiles/:<br>
> -r-------- 1 root nickers 85862211 Jan 23 18:28 .list.1.gpfs-grc6<br>
> <br>
> On Mon, Jan 24, 2022 at 02:31:54PM +0000, Paul Ward wrote:<br>
> > Those directories are empty<br>
> > <br>
> > <br>
> > Kindest regards,<br>
> > Paul<br>
> > <br>
> > Paul Ward<br>
> > TS Infrastructure Architect<br>
> > Natural History Museum<br>
> > T: 02079426450<br>
> > E: <a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a><mailto:<a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a>><br>
> > [A picture containing drawing  Description automatically generated]<br>
> > <br>
> > From: <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><br>
> > <<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a>> On Behalf Of IBM Spectrum <br>
> > Scale<br>
> > Sent: 22 January 2022 00:35<br>
> > To: gpfsug main discussion list <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale.org</a>><br>
> > Cc: <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><br>
> > Subject: Re: [gpfsug-discuss] mmbackup file selections<br>
> > <br>
> > <br>
> > Hi Paul,<br>
> > <br>
> > Instead of calculating *.ix.* files,  please look at a list file in these directories.<br>
> > <br>
> > updatedFiles  : contains a file that lists all candidates for backup <br>
> > statechFiles  : cantains a file that lists all candidates for meta <br>
> > info update expiredFiles  : cantains a file that lists all <br>
> > candidates for expiration<br>
> > <br>
> > Regards, The Spectrum Scale (GPFS) team<br>
> > <br>
> > --------------------------------------------------------------------<br>
> > --<br>
> > --------------------------------------------<br>
> > <br>
> > If your query concerns a potential software error in Spectrum Scale (GPFS) and you have an IBM software maintenance contract please contact  1-800-237-5511 in the United States or your local IBM Service Center in other countries.<br>
> > <br>
> > <br>
> > [Inactive hide details for "Paul Ward" ---01/21/2022 09:38:49 AM---Thank you Right in the command line seems to have worked.]"Paul Ward" ---01/21/2022 09:38:49 AM---Thank you Right in the command line seems to have worked.<br>
> > <br>
> > From: "Paul Ward" <<a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a><mailto:<a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a>>><br>
> > To: "gpfsug main discussion list" <br>
> > <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss@spectrumscale" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale</a>.<br>
> > org>><br>
> > Cc: <br>
> > "<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-boun" target="_blank" rel="noreferrer">gpfsug-discuss-boun</a><br>
> > ce<br>
> > <a href="mailto:s@spectrumscale.org" target="_blank" rel="noreferrer">s@spectrumscale.org</a>>" <br>
> > <<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-boun" target="_blank" rel="noreferrer">gpfsug-discuss-boun</a><br>
> > ce<br>
> > <a href="mailto:s@spectrumscale.org" target="_blank" rel="noreferrer">s@spectrumscale.org</a>>><br>
> > Date: 01/21/2022 09:38 AM<br>
> > Subject: [EXTERNAL] Re: [gpfsug-discuss] mmbackup file selections <br>
> > Sent<br>
> > by: <br>
> > <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-bounc" target="_blank" rel="noreferrer">gpfsug-discuss-bounc</a><br>
> > es<br>
> > @<a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a>><br>
> > <br>
> > ________________________________<br>
> > <br>
> > <br>
> > <br>
> > Thank you Right in the command line seems to have worked. At the end <br>
> > of the script I now copy the contents of the .mmbackupCfg folder to <br>
> > a date stamped logging folder Checking how many entries in these files compared to the Summary: ???????ZjQcmQRYFpfptBannerStart This Message Is From an External Sender This message came from outside your organization.<br>
> > ZjQcmQRYFpfptBannerEnd<br>
> > Thank you<br>
> > <br>
> > Right in the command line seems to have worked.<br>
> > At the end of the script I now copy the contents of the .mmbackupCfg <br>
> > folder to a date stamped logging folder<br>
> > <br>
> > Checking how many entries in these files compared to the Summary:<br>
> > wc -l mmbackup*<br>
> >   188 mmbackupChanged.ix.155513.6E9E8BE2.1.nhmfsa<br>
> >    47 mmbackupChanged.ix.219901.8E89AB35.1.nhmfsa<br>
> >   188 mmbackupChanged.ix.37893.EDFB8FA7.1.nhmfsa<br>
> >    40 mmbackupChanged.ix.81032.78717A00.1.nhmfsa<br>
> >     2 mmbackupExpired.ix.78683.2DD25239.1.nhmfsa<br>
> >   141 mmbackupStatech.ix.219901.8E89AB35.1.nhmfsa<br>
> >   148 mmbackupStatech.ix.81032.78717A00.1.nhmfsa<br>
> >   754 total<br>
> > From Summary<br>
> >         Total number of objects inspected:      755<br>
> > I can live with a discrepancy of 1.<br>
> > <br>
> >     2 mmbackupExpired.ix.78683.2DD25239.1.nhmfsa<br>
> > From Summary<br>
> >         Total number of objects expired:        2<br>
> > That matches<br>
> > <br>
> > wc -l mmbackupC* mmbackupS*<br>
> >   188 mmbackupChanged.ix.155513.6E9E8BE2.1.nhmfsa<br>
> >    47 mmbackupChanged.ix.219901.8E89AB35.1.nhmfsa<br>
> >   188 mmbackupChanged.ix.37893.EDFB8FA7.1.nhmfsa<br>
> >    40 mmbackupChanged.ix.81032.78717A00.1.nhmfsa<br>
> >   141 mmbackupStatech.ix.219901.8E89AB35.1.nhmfsa<br>
> >   148 mmbackupStatech.ix.81032.78717A00.1.nhmfsa<br>
> >   752 total<br>
> > Summary:<br>
> >         Total number of objects backed up:      751<br>
> > <br>
> > A difference of 1 I can live with.<br>
> > <br>
> > What does Statech stand for?<br>
> > <br>
> > Just this to sort out:<br>
> >         Total number of objects failed:         1<br>
> > I will add:<br>
> > --tsm-errorlog TSMErrorLogFile<br>
> > <br>
> > <br>
> > Kindest regards,<br>
> > Paul<br>
> > <br>
> > Paul Ward<br>
> > TS Infrastructure Architect<br>
> > Natural History Museum<br>
> > T: 02079426450<br>
> > E: <a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a><mailto:<a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a>><br>
> > [A picture containing drawing    Description automatically generated]<br>
> > <br>
> > From: <br>
> > <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-bounc" target="_blank" rel="noreferrer">gpfsug-discuss-bounc</a><br>
> > es<br>
> > @<a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a>><br>
> > <<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-boun" target="_blank" rel="noreferrer">gpfsug-discuss-boun</a><br>
> > ce <a href="mailto:s@spectrumscale.org" target="_blank" rel="noreferrer">s@spectrumscale.org</a>>> On Behalf Of IBM Spectrum Scale<br>
> > Sent: 19 January 2022 15:09<br>
> > To: gpfsug main discussion list<br>
> > <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss@spectrumscale" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale</a>.<br>
> > org>><br>
> > Cc: <br>
> > <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-bounc" target="_blank" rel="noreferrer">gpfsug-discuss-bounc</a><br>
> > es<br>
> > @<a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a>><br>
> > Subject: Re: [gpfsug-discuss] mmbackup file selections<br>
> > <br>
> > <br>
> > This is to set environment for mmbackup.<br>
> > If mmbackup is invoked within a script, you can set "export DEBUGmmbackup=2" right above mmbackup command.<br>
> > e.g)  in your script<br>
> >            ....<br>
> > export DEBUGmmbackup=2<br>
> >              mmbackup ....<br>
> > <br>
> > Or, you can set it in the same command line like<br>
> > DEBUGmmbackup=2 mmbackup ....<br>
> > <br>
> > Regards, The Spectrum Scale (GPFS) team<br>
> > <br>
> > --------------------------------------------------------------------<br>
> > --<br>
> > --------------------------------------------<br>
> > If your query concerns a potential software error in Spectrum Scale (GPFS) and you have an IBM software maintenance contract please contact  1-800-237-5511 in the United States or your local IBM Service Center in other countries.<br>
> > <br>
> > [Inactive hide details for "Paul Ward" ---01/19/2022 06:04:03 AM---Thank you. We run a script on all our nodes that checks to se]"Paul Ward" ---01/19/2022 06:04:03 AM---Thank you. We run a script on all our nodes that checks to see if they are the cluster manager.<br>
> > <br>
> > From: "Paul Ward" <<a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a><mailto:<a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a>>><br>
> > To: "gpfsug main discussion list" <br>
> > <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss@spectrumscale" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale</a>.<br>
> > org>><br>
> > Cc: <br>
> > "<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-boun" target="_blank" rel="noreferrer">gpfsug-discuss-boun</a><br>
> > ce<br>
> > <a href="mailto:s@spectrumscale.org" target="_blank" rel="noreferrer">s@spectrumscale.org</a>>" <br>
> > <<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-boun" target="_blank" rel="noreferrer">gpfsug-discuss-boun</a><br>
> > ce<br>
> > <a href="mailto:s@spectrumscale.org" target="_blank" rel="noreferrer">s@spectrumscale.org</a>>><br>
> > Date: 01/19/2022 06:04 AM<br>
> > Subject: [EXTERNAL] Re: [gpfsug-discuss] mmbackup file selections <br>
> > Sent<br>
> > by: <br>
> > <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-bounc" target="_blank" rel="noreferrer">gpfsug-discuss-bounc</a><br>
> > es<br>
> > @<a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a>><br>
> > <br>
> > ________________________________<br>
> > <br>
> > <br>
> > <br>
> > <br>
> > Thank you. We run a script on all our nodes that checks to see if <br>
> > they are the cluster manager. If they are, then they take <br>
> > responsibility to start the backup script. The script then randomly selects one of the available backup nodes and uses ZjQcmQRYFpfptBannerStart This Message Is From an External Sender This message came from outside your organization.<br>
> > ZjQcmQRYFpfptBannerEnd<br>
> > Thank you.<br>
> > <br>
> > We run a script on all our nodes that checks to see if they are the cluster manager.<br>
> > If they are, then they take responsibility to start the backup script.<br>
> > The script then randomly selects one of the available backup nodes and uses dsmsh mmbackup on it.<br>
> > <br>
> > Where does this command belong?<br>
> > I have seen it listed as a export command, again where should that be run ? on all backup nodes, or all nodes?<br>
> > <br>
> > <br>
> > Kindest regards,<br>
> > Paul<br>
> > <br>
> > Paul Ward<br>
> > TS Infrastructure Architect<br>
> > Natural History Museum<br>
> > T: 02079426450<br>
> > E: <a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a><mailto:<a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a>><br>
> > [A picture containing drawing    Description automatically generated]<br>
> > <br>
> > From: <br>
> > <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-bounc" target="_blank" rel="noreferrer">gpfsug-discuss-bounc</a><br>
> > es<br>
> > @<a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a>><br>
> > <<a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-boun" target="_blank" rel="noreferrer">gpfsug-discuss-boun</a><br>
> > ce <a href="mailto:s@spectrumscale.org" target="_blank" rel="noreferrer">s@spectrumscale.org</a>>> On Behalf Of IBM Spectrum Scale<br>
> > Sent: 18 January 2022 22:54<br>
> > To: gpfsug main discussion list<br>
> > <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss@spectrumscale" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale</a>.<br>
> > org>><br>
> > Cc: <br>
> > <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-bounc" target="_blank" rel="noreferrer">gpfsug-discuss-bounc</a><br>
> > es<br>
> > @<a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a>><br>
> > Subject: Re: [gpfsug-discuss] mmbackup file selections<br>
> > <br>
> > Hi Paul,<br>
> > <br>
> > If you run mmbackup with "DEBUGmmbackup=2", it keeps all working files even after successful backup. They are available at MMBACKUP_RECORD_ROOT (default is FSroot or FilesetRoot directory).<br>
> > In .mmbackupCfg directory, there are 3 directories:<br>
> > updatedFiles  : contains a file that lists all candidates for backup <br>
> > statechFiles  : cantains a file that lists all candidates for meta <br>
> > info update expiredFiles  : cantains a file that lists all <br>
> > candidates for expiration<br>
> > <br>
> > <br>
> > Regards, The Spectrum Scale (GPFS) team<br>
> > <br>
> > --------------------------------------------------------------------<br>
> > --<br>
> > --------------------------------------------<br>
> > If your query concerns a potential software error in Spectrum Scale (GPFS) and you have an IBM software maintenance contract please contact  1-800-237-5511 in the United States or your local IBM Service Center in other countries.<br>
> > <br>
> > [Inactive hide details for "Paul Ward" ---01/18/2022 11:56:40 AM---Hi, I am trying to work out what files have been sent to back]"Paul Ward" ---01/18/2022 11:56:40 AM---Hi, I am trying to work out what files have been sent to backup using mmbackup.<br>
> > <br>
> > From: "Paul Ward" <<a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a><mailto:<a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a>>><br>
> > To: <br>
> > "<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss@spectrumscale" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale</a>.<br>
> > org>" <br>
> > <<a href="mailto:gpfsug-discuss@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss@spectrumscale" target="_blank" rel="noreferrer">gpfsug-discuss@spectrumscale</a>.<br>
> > org>><br>
> > Date: 01/18/2022 11:56 AM<br>
> > Subject: [EXTERNAL] [gpfsug-discuss] mmbackup file selections Sent by: <br>
> > <a href="mailto:gpfsug-discuss-bounces@spectrumscale.org" target="_blank" rel="noreferrer">gpfsug-discuss-bounces@spectrumscale.org</a><mailto:<a href="mailto:gpfsug-discuss-bounc" target="_blank" rel="noreferrer">gpfsug-discuss-bounc</a><br>
> > es<br>
> > @<a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a>><br>
> > <br>
> > ________________________________<br>
> > <br>
> > <br>
> > <br>
> > <br>
> > <br>
> > Hi, I am trying to work out what files have been sent to backup <br>
> > using mmbackup. I have increased the -L value from 3 up to 6 but <br>
> > only seem to see the files that are in scope, not the ones that are selected. I can see the three file lists generated ZjQcmQRYFpfptBannerStart This Message Is From an External Sender This message came from outside your organization.<br>
> > ZjQcmQRYFpfptBannerEnd<br>
> > Hi,<br>
> > <br>
> > I am trying to work out what files have been sent to backup using mmbackup.<br>
> > I have increased the -L value from 3 up to 6 but only seem to see the files that are in scope, not the ones that are selected.<br>
> > <br>
> > I can see the three file lists generated during a backup, but can?t seem to find a list of what files were backed up.<br>
> > <br>
> > It should be the diff of the shadow and shadow-old, but the wc -l of the diff doesn?t match the number of files in the backup summary.<br>
> > Wrong assumption?<br>
> > <br>
> > Where should I be looking ? surely it shouldn?t be this hard to see what files are selected?<br>
> > <br>
> > <br>
> > Kindest regards,<br>
> > Paul<br>
> > <br>
> > Paul Ward<br>
> > TS Infrastructure Architect<br>
> > Natural History Museum<br>
> > T: 02079426450<br>
> > E: <a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a><mailto:<a href="mailto:p.ward@nhm.ac.uk" target="_blank" rel="noreferrer">p.ward@nhm.ac.uk</a>><br>
> > [A picture containing drawing    Description automatically generated]<br>
> > _______________________________________________<br>
> > gpfsug-discuss mailing list<br>
> > gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a><br>
> > <a href="https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpf" rel="noreferrer noreferrer" target="_blank">https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpf</a><br>
> > su<br>
> > <a href="http://g.org" rel="noreferrer noreferrer" target="_blank">g.org</a>%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.war<br>
> > d%<br>
> > <a href="http://40nhm.ac.uk" rel="noreferrer noreferrer" target="_blank">40nhm.ac.uk</a>%7Cd4c22f3c612c4cb6deb908d9df4fd706%7C73a29c014e78437fa0d<br>
> > 4c<br>
> > 8553e1960c1%7C1%7C0%7C637786356879087616%7CUnknown%7CTWFpbGZsb3d8eyJ<br>
> > WI<br>
> > joiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C2000<br>
> > &a<br>
> > mp;sdata=72gqmRJEgZ97s3%2BjmFD12PpfcJJKUVJuyvyJf4beXS8%3D&amp;reserv<br>
> > ed<br>
> > =0<<a href="https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2F" rel="noreferrer noreferrer" target="_blank">https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2F</a><br>
> > gp<br>
> > <a href="http://fsug.org" rel="noreferrer noreferrer" target="_blank">fsug.org</a>%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.<br>
> > wa<br>
> > rd%<a href="http://40nhm.ac.uk" rel="noreferrer noreferrer" target="_blank">40nhm.ac.uk</a>%7Cd4c22f3c612c4cb6deb908d9df4fd706%7C73a29c014e78437f<br>
> > a0<br>
> > d4c8553e1960c1%7C1%7C0%7C637786356879087616%7CUnknown%7CTWFpbGZsb3d8<br>
> > ey<br>
> > JWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C2<br>
> > 00<br>
> > 0&amp;sdata=72gqmRJEgZ97s3%2BjmFD12PpfcJJKUVJuyvyJf4beXS8%3D&amp;res<br>
> > er<br>
> > ved=0><br>
> > <br>
> > <br>
> > _______________________________________________<br>
> > gpfsug-discuss mailing list<br>
> > gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a><br>
> > <a href="https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpf" rel="noreferrer noreferrer" target="_blank">https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpf</a><br>
> > su<br>
> > <a href="http://g.org" rel="noreferrer noreferrer" target="_blank">g.org</a>%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.war<br>
> > d%<br>
> > <a href="http://40nhm.ac.uk" rel="noreferrer noreferrer" target="_blank">40nhm.ac.uk</a>%7Cd4c22f3c612c4cb6deb908d9df4fd706%7C73a29c014e78437fa0d<br>
> > 4c<br>
> > 8553e1960c1%7C1%7C0%7C637786356879087616%7CUnknown%7CTWFpbGZsb3d8eyJ<br>
> > WI<br>
> > joiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C2000<br>
> > &a<br>
> > mp;sdata=72gqmRJEgZ97s3%2BjmFD12PpfcJJKUVJuyvyJf4beXS8%3D&amp;reserv<br>
> > ed<br>
> > =0<<a href="https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2F" rel="noreferrer noreferrer" target="_blank">https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2F</a><br>
> > gp<br>
> > <a href="http://fsug.org" rel="noreferrer noreferrer" target="_blank">fsug.org</a>%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.<br>
> > wa<br>
> > rd%<a href="http://40nhm.ac.uk" rel="noreferrer noreferrer" target="_blank">40nhm.ac.uk</a>%7Cd4c22f3c612c4cb6deb908d9df4fd706%7C73a29c014e78437f<br>
> > a0<br>
> > d4c8553e1960c1%7C1%7C0%7C637786356879243834%7CUnknown%7CTWFpbGZsb3d8<br>
> > ey<br>
> > JWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C2<br>
> > 00<br>
> > 0&amp;sdata=ng2wVGN4u37lfaRjVYe%2F7sq9AwrXTWnVIQ7iVB%2BZWuc%3D&amp;r<br>
> > es<br>
> > erved=0><br>
> > <br>
> > <br>
> > _______________________________________________<br>
> > gpfsug-discuss mailing list<br>
> > gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a><br>
> > <a href="https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpf" rel="noreferrer noreferrer" target="_blank">https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpf</a><br>
> > su<br>
> > <a href="http://g.org" rel="noreferrer noreferrer" target="_blank">g.org</a>%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.war<br>
> > d%<br>
> > <a href="http://40nhm.ac.uk" rel="noreferrer noreferrer" target="_blank">40nhm.ac.uk</a>%7Cd4c22f3c612c4cb6deb908d9df4fd706%7C73a29c014e78437fa0d<br>
> > 4c<br>
> > 8553e1960c1%7C1%7C0%7C637786356879243834%7CUnknown%7CTWFpbGZsb3d8eyJ<br>
> > WI<br>
> > joiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C2000<br>
> > &a<br>
> > mp;sdata=ng2wVGN4u37lfaRjVYe%2F7sq9AwrXTWnVIQ7iVB%2BZWuc%3D&amp;rese<br>
> > rv<br>
> > ed=0<<a href="https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%" rel="noreferrer noreferrer" target="_blank">https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%</a><br>
> > 25<br>
> > 2F<br>
> > <a href="http://gpfsug.org" rel="noreferrer noreferrer" target="_blank">gpfsug.org</a>%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.<br>
> > ward%<a href="http://40nhm.ac.uk" rel="noreferrer noreferrer" target="_blank">40nhm.ac.uk</a>%7Cd4c22f3c612c4cb6deb908d9df4fd706%7C73a29c014e7843<br>
> > 7f<br>
> > a0d4c8553e1960c1%7C1%7C0%7C637786356879243834%7CUnknown%7CTWFpbGZsb3<br>
> > d8<br>
> > eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7<br>
> > C2<br>
> > 000&amp;sdata=ng2wVGN4u37lfaRjVYe%2F7sq9AwrXTWnVIQ7iVB%2BZWuc%3D&amp<br>
> > ;r<br>
> > eserved=0><br>
> > <br>
> > <br>
> > <br>
> <br>
> <br>
> <br>
> <br>
> > _______________________________________________<br>
> > gpfsug-discuss mailing list<br>
> > gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a><br>
> > <a href="https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpf" rel="noreferrer noreferrer" target="_blank">https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpf</a><br>
> > su<br>
> > <a href="http://g.org" rel="noreferrer noreferrer" target="_blank">g.org</a>%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.war<br>
> > d%<br>
> > <a href="http://40nhm.ac.uk" rel="noreferrer noreferrer" target="_blank">40nhm.ac.uk</a>%7Cd4c22f3c612c4cb6deb908d9df4fd706%7C73a29c014e78437fa0d<br>
> > 4c<br>
> > 8553e1960c1%7C1%7C0%7C637786356879243834%7CUnknown%7CTWFpbGZsb3d8eyJ<br>
> > WI<br>
> > joiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C2000<br>
> > &a<br>
> > mp;sdata=ng2wVGN4u37lfaRjVYe%2F7sq9AwrXTWnVIQ7iVB%2BZWuc%3D&amp;rese<br>
> > rv<br>
> > ed=0<br>
> <br>
> <br>
> --<br>
> -- Skylar Thompson (<a href="mailto:skylar2@u.washington.edu" target="_blank" rel="noreferrer">skylar2@u.washington.edu</a>)<br>
> -- Genome Sciences Department (UW Medicine), System Administrator<br>
> -- Foege Building S046, (206)-685-7354<br>
> -- Pronouns: He/Him/His<br>
> _______________________________________________<br>
> gpfsug-discuss mailing list<br>
> gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a><br>
> <a href="https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpfsu" rel="noreferrer noreferrer" target="_blank">https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpfsu</a><br>
> <a href="http://g.org" rel="noreferrer noreferrer" target="_blank">g.org</a>%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.ward%<br>
> <a href="http://40nhm.ac.uk" rel="noreferrer noreferrer" target="_blank">40nhm.ac.uk</a>%7C2a53f85fa35840d8969f08d9e0ec093f%7C73a29c014e78437fa0d4c<br>
> 8553e1960c1%7C1%7C0%7C637788126972842626%7CUnknown%7CTWFpbGZsb3d8eyJWI<br>
> joiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C2000&a<br>
> mp;sdata=Vo0YKGexQUUmzE2MAV9%2BKt5GDSm2xIcB%2F8E%2BxUvBeqE%3D&amp;rese<br>
> rved=0 _______________________________________________<br>
> gpfsug-discuss mailing list<br>
> gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a><br>
> <a href="https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpfsu" rel="noreferrer noreferrer" target="_blank">https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpfsu</a><br>
> <a href="http://g.org" rel="noreferrer noreferrer" target="_blank">g.org</a>%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.ward%<br>
> <a href="http://40nhm.ac.uk" rel="noreferrer noreferrer" target="_blank">40nhm.ac.uk</a>%7C2a53f85fa35840d8969f08d9e0ec093f%7C73a29c014e78437fa0d4c<br>
> 8553e1960c1%7C1%7C0%7C637788126972842626%7CUnknown%7CTWFpbGZsb3d8eyJWI<br>
> joiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C2000&a<br>
> mp;sdata=Vo0YKGexQUUmzE2MAV9%2BKt5GDSm2xIcB%2F8E%2BxUvBeqE%3D&amp;rese<br>
> rved=0<br>
<br>
--<br>
-- Skylar Thompson (<a href="mailto:skylar2@u.washington.edu" target="_blank" rel="noreferrer">skylar2@u.washington.edu</a>)<br>
-- Genome Sciences Department (UW Medicine), System Administrator<br>
-- Foege Building S046, (206)-685-7354<br>
-- Pronouns: He/Him/His<br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpfsug.org%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.ward%40nhm.ac.uk%7C6d97e9a0e37c471cae7308d9e57e53d5%7C73a29c014e78437fa0d4c8553e1960c1%7C1%7C0%7C637793154323249334%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C2000&amp;sdata=LAVGUD2z%2BD2BcOJkan%2FLiOOlDyH44D5m2YHjIFk62HI%3D&amp;reserved=0" rel="noreferrer noreferrer" target="_blank">https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpfsug.org%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.ward%40nhm.ac.uk%7C6d97e9a0e37c471cae7308d9e57e53d5%7C73a29c014e78437fa0d4c8553e1960c1%7C1%7C0%7C637793154323249334%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C2000&amp;sdata=LAVGUD2z%2BD2BcOJkan%2FLiOOlDyH44D5m2YHjIFk62HI%3D&amp;reserved=0</a><br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpfsug.org%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.ward%40nhm.ac.uk%7C6d97e9a0e37c471cae7308d9e57e53d5%7C73a29c014e78437fa0d4c8553e1960c1%7C1%7C0%7C637793154323249334%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C2000&amp;sdata=LAVGUD2z%2BD2BcOJkan%2FLiOOlDyH44D5m2YHjIFk62HI%3D&amp;reserved=0" rel="noreferrer noreferrer" target="_blank">https://eur03.safelinks.protection.outlook.com/?url=http%3A%2F%2Fgpfsug.org%2Fmailman%2Flistinfo%2Fgpfsug-discuss&amp;data=04%7C01%7Cp.ward%40nhm.ac.uk%7C6d97e9a0e37c471cae7308d9e57e53d5%7C73a29c014e78437fa0d4c8553e1960c1%7C1%7C0%7C637793154323249334%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C2000&amp;sdata=LAVGUD2z%2BD2BcOJkan%2FLiOOlDyH44D5m2YHjIFk62HI%3D&amp;reserved=0</a><br>
_______________________________________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer noreferrer" target="_blank">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a><br>
</blockquote></div>