<html><body><p><font size="2">All,</font><br><br><font size="2">Correct. There is no need to change the value of 'maxblocksize' for existing clusters which are upgraded to the 5.0.0 level. If a new file system needs to be created with a block size which exceeds the value of maxblocksize then the mmchconfig needs to be issued to increase the value of maxblocksize (which requires the entire cluster to be stopped).</font><br><br><font size="2">For clusters newly created with 5.0.0, the value of maxblocksize is set to 4MB.  See the references to maxblocksize in the mmchconfig and mmcrfs man pages in 5.0.0 .</font><br><br><font size="2"> Felipe</font><br><br><font size="2">----<br>Felipe Knop                                     knop@us.ibm.com<br>GPFS Development and Security<br>IBM Systems<br>IBM Building 008<br>2455 South Rd, Poughkeepsie, NY 12601<br>(845) 433-9314  T/L 293-9314<br><br></font><br><br><img width="16" height="16" src="cid:1__=8FBB08BCDFD8A0188f9e8a93df938690918c8FB@" border="0" alt="Inactive hide details for "Uwe Falke" ---02/09/2018 06:54:10 AM---I suppose the new maxBlockSize default is <>1MB, so your conf"><font size="2" color="#424282">"Uwe Falke" ---02/09/2018 06:54:10 AM---I suppose the new maxBlockSize default is <>1MB, so your config parameter  was properly translated.</font><br><br><font size="2" color="#5F5F5F">From:        </font><font size="2">"Uwe Falke" <UWEFALKE@de.ibm.com></font><br><font size="2" color="#5F5F5F">To:        </font><font size="2">gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></font><br><font size="2" color="#5F5F5F">Date:        </font><font size="2">02/09/2018 06:54 AM</font><br><font size="2" color="#5F5F5F">Subject:        </font><font size="2">Re: [gpfsug-discuss] V5 Experience</font><br><font size="2" color="#5F5F5F">Sent by:        </font><font size="2">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br><br><br><tt><font size="2">I suppose the new maxBlockSize default is <>1MB, so your config parameter <br>was properly translated. I'd see no need to change anything.<br><br><br> <br>Mit freundlichen Grüßen / Kind regards<br><br> <br>Dr. Uwe Falke<br> <br>IT Specialist<br>High Performance Computing Services / Integrated Technology Services / <br>Data Center Services<br>-------------------------------------------------------------------------------------------------------------------------------------------<br>IBM Deutschland<br>Rathausstr. 7<br>09111 Chemnitz<br>Phone: +49 371 6978 2165<br>Mobile: +49 175 575 2877<br>E-Mail: uwefalke@de.ibm.com<br>-------------------------------------------------------------------------------------------------------------------------------------------<br>IBM Deutschland Business & Technology Services GmbH / Geschäftsführung: <br>Thomas Wolter, Sven Schooß<br>Sitz der Gesellschaft: Ehningen / Registergericht: Amtsgericht Stuttgart, <br>HRB 17122 <br><br><br><br><br>From:   "Grunenberg, Renar" <Renar.Grunenberg@huk-coburg.de><br>To:     "'gpfsug-discuss@spectrumscale.org'" <br><gpfsug-discuss@spectrumscale.org><br>Date:   02/09/2018 10:16 AM<br>Subject:        [gpfsug-discuss] V5 Experience<br>Sent by:        gpfsug-discuss-bounces@spectrumscale.org<br><br><br><br>Hallo All,<br>we updated our Test-Cluster from 4.2.3.6 to V5.0.0.1. So good so fine, but <br>I see after the mmchconfig release=LATEST a new common parameter <br>?maxblocksize 1M? <br>(our fs are on these blocksizes) is happening.<br>Ok, but if I will change this parameter the hole cluster was requestet <br>that:<br> <br>  root @sbdl7003(rhel7.4)> mmchconfig maxblocksize=DEFAULT<br>Verifying GPFS is stopped on all nodes ...<br>mmchconfig: GPFS is still active on SAPL7012x1.t7.lan.tuhuk.de<br>mmchconfig: GPFS is still active on SBDL7001x1.t7.lan.tuhuk.de<br>mmchconfig: GPFS is still active on SAPL7013x1.t7.lan.tuhuk.de<br>mmchconfig: GPFS is still active on SAPL7009x1.t7.lan.tuhuk.de<br>mmchconfig: GPFS is still active on SAPL7008x1.t7.lan.tuhuk.de<br>mmchconfig: GPFS is still active on SBDL7003x1.t7.lan.tuhuk.de<br>mmchconfig: GPFS is still active on SBDL7004x1.t7.lan.tuhuk.de<br>mmchconfig: GPFS is still active on SAPL7001x1.t7.lan.tuhuk.de<br>mmchconfig: Command failed. Examine previous error messages to determine <br>cause.<br>Can someone explain the behavior here, and same clarification in an update <br>plan what can we do to go to the defaults without clusterdown.<br>Is this a bug or a feature;-) <br> <br>Regards Renar<br>Renar Grunenberg<br>Abteilung Informatik ? Betrieb<br><br>HUK-COBURG<br>Bahnhofsplatz<br>96444 Coburg<br>Telefon:<br>09561 96-44110<br>Telefax:<br>09561 96-44104<br>E-Mail:<br>Renar.Grunenberg@huk-coburg.de<br>Internet:<br></font></tt><tt><font size="2">www.huk.de</font></tt><tt><font size="2"><br>HUK-COBURG Haftpflicht-Unterstützungs-Kasse kraftfahrender Beamter <br>Deutschlands a. G. in Coburg<br>Reg.-Gericht Coburg HRB 100; St.-Nr. 9212/101/00021<br>Sitz der Gesellschaft: Bahnhofsplatz, 96444 Coburg<br>Vorsitzender des Aufsichtsrats: Prof. Dr. Heinrich R. Schradin.<br>Vorstand: Klaus-Jürgen Heitmann (Sprecher), Stefan Gronbach, Dr. Hans Olav <br>Herøy, Dr. Jörg Rheinländer (stv.), Sarah Rössler, Daniel Thomas (stv.).<br>Diese Nachricht enthält vertrauliche und/oder rechtlich geschützte <br>Informationen.<br>Wenn Sie nicht der richtige Adressat sind oder diese Nachricht irrtümlich <br>erhalten haben,<br>informieren Sie bitte sofort den Absender und vernichten Sie diese <br>Nachricht.<br>Das unerlaubte Kopieren sowie die unbefugte Weitergabe dieser Nachricht <br>ist nicht gestattet.<br><br>This information may contain confidential and/or privileged information.<br>If you are not the intended recipient (or have received this information <br>in error) please notify the<br>sender immediately and destroy this information.<br>Any unauthorized copying, disclosure or distribution of the material in <br>this information is strictly forbidden.<br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><tt><font size="2"><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwIFAw&c=jf_iaSHvJObTbx-siA1ZOg&r=oNT2koCZX0xmWlSlLblR9Q&m=6lyCPEFGZrRBZrhH_iGlkum-CJi5MkJpfNnkOgs3mO0&s=VLofD771s6d1PyNl8EDOhntcFwAcZTrFbwdsWN9mcas&e=">https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwIFAw&c=jf_iaSHvJObTbx-siA1ZOg&r=oNT2koCZX0xmWlSlLblR9Q&m=6lyCPEFGZrRBZrhH_iGlkum-CJi5MkJpfNnkOgs3mO0&s=VLofD771s6d1PyNl8EDOhntcFwAcZTrFbwdsWN9mcas&e=</a></font></tt><tt><font size="2"><br><br><br><br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><tt><font size="2"><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwIFAw&c=jf_iaSHvJObTbx-siA1ZOg&r=oNT2koCZX0xmWlSlLblR9Q&m=6lyCPEFGZrRBZrhH_iGlkum-CJi5MkJpfNnkOgs3mO0&s=VLofD771s6d1PyNl8EDOhntcFwAcZTrFbwdsWN9mcas&e=">https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DwIFAw&c=jf_iaSHvJObTbx-siA1ZOg&r=oNT2koCZX0xmWlSlLblR9Q&m=6lyCPEFGZrRBZrhH_iGlkum-CJi5MkJpfNnkOgs3mO0&s=VLofD771s6d1PyNl8EDOhntcFwAcZTrFbwdsWN9mcas&e=</a></font></tt><tt><font size="2"><br><br></font></tt><br><br><BR>
</body></html>