<div class="socmaildefaultfont" dir="ltr" style="font-family:Verdana, Geneva, sans-serif;font-size:9pt" ><div dir="ltr" >Maybe this would make for a good session at a future user group meeting -- perhaps as an interactive session? IBM could potentially provide a facilitator from our Design practice.</div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<div dir="ltr" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div class="socmaildefaultfont" dir="ltr" style="font-family:Arial, Helvetica, sans-serif;font-size:10.5pt" ><div dir="ltr" ><div><span style="font-size:0.857em;" ><span style="font-family: Verdana,Geneva,sans-serif;" >Carl Zetie</span><br><font face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" >Offering Manager for Spectrum Scale, IBM</font></span></div>
<div><span style="font-size:0.857em;" ><span style="font-family: Verdana,Geneva,sans-serif;" >   </span></span></div>
<div><span style="font-size:0.857em;" ><font face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" ><span style="font-family: Verdana,Geneva,sans-serif;" ><font face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" >(</font>540) 882 9353 ][</span></font><font face="Default Sans Serif,Verdana,Arial,Helvetica,sans-serif" > Research Triangle Park<br>carlz@us.ibm.com</font></span></div></div></div></div></div></div></div></div></div></div></div>
<div dir="ltr" > </div>
<div dir="ltr" > </div>
<blockquote data-history-content-modified="1" dir="ltr" style="border-left:solid #aaaaaa 2px; margin-left:5px; padding-left:5px; direction:ltr; margin-right:0px" >----- Original message -----<br>From: gpfsug-discuss-request@spectrumscale.org<br>Sent by: gpfsug-discuss-bounces@spectrumscale.org<br>To: gpfsug-discuss@spectrumscale.org<br>Cc:<br>Subject: gpfsug-discuss Digest, Vol 72, Issue 35<br>Date: Tue, Jan 16, 2018 8:47 AM<br> 
<div><font size="2" face="Default Monospace,Courier New,Courier,monospace" >Send gpfsug-discuss mailing list submissions to<br>gpfsug-discuss@spectrumscale.org<br><br>To subscribe or unsubscribe via the World Wide Web, visit<br><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=_OJP-FeH6_MX0A_2d8wiSaw4AUOLlDQ-IBK9778qmyo&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=_OJP-FeH6_MX0A_2d8wiSaw4AUOLlDQ-IBK9778qmyo&e=</a><br>or, via email, send a message with subject or body 'help' to<br>gpfsug-discuss-request@spectrumscale.org<br><br>You can reach the person managing the list at<br>gpfsug-discuss-owner@spectrumscale.org<br><br>When replying, please edit your Subject line so it is more specific<br>than "Re: Contents of gpfsug-discuss digest..."<br><br><br>Today's Topics:<br><br>   1. Re: GPFS best practises : end user standpoint (Oesterlin, Robert)<br>   2. Re: GPFS best practises : end user standpoint<br>      (Knister, Aaron S. (GSFC-606.2)[COMPUTER SCIENCE CORP])<br>   3. Re: GPFS best practises : end user standpoint<br>      (Knister, Aaron S. (GSFC-606.2)[COMPUTER SCIENCE CORP])<br><br><br>----------------------------------------------------------------------<br><br>Message: 1<br>Date: Tue, 16 Jan 2018 12:41:28 +0000<br>From: "Oesterlin, Robert" <Robert.Oesterlin@nuance.com><br>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Subject: Re: [gpfsug-discuss] GPFS best practises : end user<br>standpoint<br>Message-ID: <4827AC97-D2CE-46EB-922E-B7C8A4E0D92C@nuance.com><br>Content-Type: text/plain; charset="utf-8"<br><br>Hi PMB<br><br>This is one of the areas where even the most experienced admins struggle. There is no single answer here. Much of it depends on your particular use case and the file system layout, storage choices, block sizes all go together. IBM has started to provide some templates for this (the one out is for Genomics) but much is left to do. If you could share some details on the overall user environment and data myself and others could offer some ideas.<br><br><br>Bob Oesterlin<br>Sr Principal Storage Engineer, Nuance<br><br>From: <gpfsug-discuss-bounces@spectrumscale.org> on behalf of Brunet Pierre-Marie <pierre-marie.brunet@cnes.fr><br>Reply-To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Date: Tuesday, January 16, 2018 at 4:51 AM<br>To: "gpfsug-discuss@spectrumscale.org" <gpfsug-discuss@spectrumscale.org><br>Subject: [EXTERNAL] [gpfsug-discuss] GPFS best practises : end user standpoint<br><br>Hi all GPFS-gurus !<br><br>We (hardly) try to train our users in order to improve how they use storage.<br><br>I found a lot of best practices on how to configure GPFS from the admin point of view but is there any documentation about how to best user a parallel filesystem like GPFS ?<br>I?m talking about very basic rules such as max number of files / subdir into a directory.<br><br>I know this is closely related to the FS and storage configuration but there may exist some common rules in order to achieve the best scalabilty, right ?<br><br>Thanks for your advices,<br>PMB<br>--<br>HPC architect<br>CNES, French space agency<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_pipermail_gpfsug-2Ddiscuss_attachments_20180116_a0e8ca6e_attachment-2D0001.html&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=-1ldYmMtbaWLVa0WAw-wLIIhoOT4IJFYiAtjdNHLRlg&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_pipermail_gpfsug-2Ddiscuss_attachments_20180116_a0e8ca6e_attachment-2D0001.html&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=-1ldYmMtbaWLVa0WAw-wLIIhoOT4IJFYiAtjdNHLRlg&e=</a>><br><br>------------------------------<br><br>Message: 2<br>Date: Tue, 16 Jan 2018 13:03:06 +0000<br>From: "Knister, Aaron S. (GSFC-606.2)[COMPUTER SCIENCE CORP]"<br><aaron.s.knister@nasa.gov><br>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org>,<br>"gpfsug main discussion list" <gpfsug-discuss@spectrumscale.org><br>Subject: Re: [gpfsug-discuss] GPFS best practises : end user<br>standpoint<br>Message-ID: <A09710C4-DB52-4704-B92E-518C208F425C@nasa.gov><br>Content-Type: text/plain; charset="windows-1252"<br><br>Aaron Knister liked your message with Boxer<<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__bxr.io_PBIzV&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=gJc5JPwaQKIvIA0j7wAwup6hzqlJbbK3VlAmerxDuGU&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__bxr.io_PBIzV&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=gJc5JPwaQKIvIA0j7wAwup6hzqlJbbK3VlAmerxDuGU&e=</a>>.<br><br><br>On January 16, 2018 at 07:41:40 EST, Oesterlin, Robert <Robert.Oesterlin@nuance.com> wrote:<br><br>Hi PMB<br><br><br><br>This is one of the areas where even the most experienced admins struggle. There is no single answer here. Much of it depends on your particular use case and the file system layout, storage choices, block sizes all go together. IBM has started to provide some templates for this (the one out is for Genomics) but much is left to do. If you could share some details on the overall user environment and data myself and others could offer some ideas.<br><br><br><br><br><br>Bob Oesterlin<br><br>Sr Principal Storage Engineer, Nuance<br><br><br><br>From: <gpfsug-discuss-bounces@spectrumscale.org> on behalf of Brunet Pierre-Marie <pierre-marie.brunet@cnes.fr><br>Reply-To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Date: Tuesday, January 16, 2018 at 4:51 AM<br>To: "gpfsug-discuss@spectrumscale.org" <gpfsug-discuss@spectrumscale.org><br>Subject: [EXTERNAL] [gpfsug-discuss] GPFS best practises : end user standpoint<br><br><br><br>Hi all GPFS-gurus !<br><br><br><br>We (hardly) try to train our users in order to improve how they use storage.<br><br><br><br>I found a lot of best practices on how to configure GPFS from the admin point of view but is there any documentation about how to best user a parallel filesystem like GPFS ?<br><br>I?m talking about very basic rules such as max number of files / subdir into a directory.<br><br><br><br>I know this is closely related to the FS and storage configuration but there may exist some common rules in order to achieve the best scalabilty, right ?<br><br><br><br>Thanks for your advices,<br><br>PMB<br><br>--<br><br>HPC architect<br><br>CNES, French space agency<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_pipermail_gpfsug-2Ddiscuss_attachments_20180116_0d4060ff_attachment-2D0001.html&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=Xup38npKYcjdGmFACuTRRzOvncNwemBBdTJoeJt57hA&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_pipermail_gpfsug-2Ddiscuss_attachments_20180116_0d4060ff_attachment-2D0001.html&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=Xup38npKYcjdGmFACuTRRzOvncNwemBBdTJoeJt57hA&e=</a>><br><br>------------------------------<br><br>Message: 3<br>Date: Tue, 16 Jan 2018 13:47:19 +0000<br>From: "Knister, Aaron S. (GSFC-606.2)[COMPUTER SCIENCE CORP]"<br><aaron.s.knister@nasa.gov><br>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Subject: Re: [gpfsug-discuss] GPFS best practises : end user<br>standpoint<br>Message-ID: <86593829-3D51-4203-98E0-E22B0A727C87@nasa.gov><br>Content-Type: text/plain; charset="windows-1252"<br><br>Apologies for that. My mobile exchange email client has a like button you can tap in the email action menu. I just discovered it this morning accidentally and thought ?wonder what this does. Better push it to find out.? Nothing happened or so I thought. Apparently all it does is make you look like a moron on public mailing lists. Doh!<br><br><br><br><br><br>On January 16, 2018 at 08:03:06 EST, Aaron Knister <aaron.s.knister@nasa.gov> wrote:<br>Aaron Knister liked your message with Boxer<<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__bxr.io_PBIzV&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=gJc5JPwaQKIvIA0j7wAwup6hzqlJbbK3VlAmerxDuGU&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__bxr.io_PBIzV&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=gJc5JPwaQKIvIA0j7wAwup6hzqlJbbK3VlAmerxDuGU&e=</a>>.<br><br><br>On January 16, 2018 at 07:41:40 EST, Oesterlin, Robert <Robert.Oesterlin@nuance.com> wrote:<br><br>Hi PMB<br><br><br><br>This is one of the areas where even the most experienced admins struggle. There is no single answer here. Much of it depends on your particular use case and the file system layout, storage choices, block sizes all go together. IBM has started to provide some templates for this (the one out is for Genomics) but much is left to do. If you could share some details on the overall user environment and data myself and others could offer some ideas.<br><br><br><br><br><br>Bob Oesterlin<br><br>Sr Principal Storage Engineer, Nuance<br><br><br><br>From: <gpfsug-discuss-bounces@spectrumscale.org> on behalf of Brunet Pierre-Marie <pierre-marie.brunet@cnes.fr><br>Reply-To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>Date: Tuesday, January 16, 2018 at 4:51 AM<br>To: "gpfsug-discuss@spectrumscale.org" <gpfsug-discuss@spectrumscale.org><br>Subject: [EXTERNAL] [gpfsug-discuss] GPFS best practises : end user standpoint<br><br><br><br>Hi all GPFS-gurus !<br><br><br><br>We (hardly) try to train our users in order to improve how they use storage.<br><br><br><br>I found a lot of best practices on how to configure GPFS from the admin point of view but is there any documentation about how to best user a parallel filesystem like GPFS ?<br><br>I?m talking about very basic rules such as max number of files / subdir into a directory.<br><br><br><br>I know this is closely related to the FS and storage configuration but there may exist some common rules in order to achieve the best scalabilty, right ?<br><br><br><br>Thanks for your advices,<br><br>PMB<br><br>--<br><br>HPC architect<br><br>CNES, French space agency<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: <<a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_pipermail_gpfsug-2Ddiscuss_attachments_20180116_1820e744_attachment.html&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=rlCnPYffm1Evkggv7XYDdT8IAczRa6r1nAjs3oTlKhk&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_pipermail_gpfsug-2Ddiscuss_attachments_20180116_1820e744_attachment.html&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=rlCnPYffm1Evkggv7XYDdT8IAczRa6r1nAjs3oTlKhk&e=</a>><br><br>------------------------------<br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=_OJP-FeH6_MX0A_2d8wiSaw4AUOLlDQ-IBK9778qmyo&e=" target="_blank" >https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwICAg&c=jf_iaSHvJObTbx-siA1ZOg&r=obB2s7QQTgU9QMn1708Vpg&m=balDXVnqd-Sqzkqo-mQ6sdGFhfWadLOsYHH12Pgz6Bk&s=_OJP-FeH6_MX0A_2d8wiSaw4AUOLlDQ-IBK9778qmyo&e=</a><br><br><br>End of gpfsug-discuss Digest, Vol 72, Issue 35<br>**********************************************</font><br> </div></blockquote>
<div dir="ltr" > </div></div><BR>