<font size=2 face="sans-serif">I still see the following statement* regarding
with the use of LROC in FAQ (URL #1).</font><br><font size=2 face="sans-serif">Are there any issues anticipated to
use LROC on protocol nodes?</font><br><br><font size=2 face="sans-serif">Q8.3: What are some configuration considerations
when deploying the protocol functionality?</font><br><font size=2 face="sans-serif">A8.3: Configuration considerations include:</font><br><font size=2 face="sans-serif">    (... many lines are snipped
...)</font><br><font size=2 face="sans-serif">Several GPFS configuration aspects have
not been explicitly tested with the protocol function:</font><br><font size=2 face="sans-serif">    (... many lines are snipped
...)</font><br><font size=2 face="sans-serif">Local Read Only Cache*</font><br><font size=2 face="sans-serif">    (... many lines are snipped
...)</font><br><br><font size=2 face="sans-serif">Q2.25: What are the current requirements
when using local read-only cache?</font><br><font size=2 face="sans-serif">A2.25: The current requirements/limitations
for using local read-only cache include:</font><br><font size=2 face="sans-serif">- A minimum of IBM Spectrum Scale V4.1.0.1.</font><br><font size=2 face="sans-serif">- Local read-only cache is only supported
on Linux x86 and Power.</font><br><font size=2 face="sans-serif">- The minimum size of a local read-only
cache device is 4 GB.</font><br><font size=2 face="sans-serif">- The local read-only cache requires
memory equal to 1% of the local read-only device's capacity.</font><br><font size=2 face="sans-serif">Note: Use of local read-only cache does
not require a server license</font><br><br><font size=2 face="sans-serif">[1] IBM Spectrum Scale™ Frequently
Asked Questions and Answers (November 2016)</font><br><a href=https://www.ibm.com/support/knowledgecenter/STXKQY/gpfsclustersfaq.html><font size=2 color=blue face="sans-serif">https://www.ibm.com/support/knowledgecenter/STXKQY/gpfsclustersfaq.html</font></a><br><br><font size=2 face="sans-serif">---<br>Keigo Matsubara, Industry Architect, IBM Japan<br>TEL: +81-50-3150-0595, T/L: 6205-0595<br></font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">"Olaf Weiser"
<olaf.weiser@de.ibm.com></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">gpfsug main discussion
list <gpfsug-discuss@spectrumscale.org></font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">2016/12/21 05:31</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">Re: [gpfsug-discuss]
LROC</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><font size=2 face="sans-serif">it's all true and right, but please
have in mind.. with MFTC and the number of nodes  in the ( remote
and local ) cluster, you 'll need token mem<br>since R42 token Mem is allocated automatically .. so the old tokenMEMLimit
is more or less obsolete.. but you should have your overall configuration
in mind, when raising MFTC clusterwide...</font><font size=3><br></font><font size=2 face="sans-serif"><br>just a hint.. </font><font size=3><br></font><font size=2 face="sans-serif"><br>have fun...</font><br><font size=2 face="sans-serif">Mit freundlichen Grüßen / Kind regards</font><font size=3><br></font><font size=2 face="sans-serif"><br> <br>Olaf Weiser<br><br>EMEA Storage Competence Center Mainz, German / IBM Systems, Storage Platform,<br>-------------------------------------------------------------------------------------------------------------------------------------------<br>IBM Deutschland<br>IBM Allee 1<br>71139 Ehningen<br>Phone: +49-170-579-44-66<br>E-Mail: olaf.weiser@de.ibm.com<br>-------------------------------------------------------------------------------------------------------------------------------------------<br>IBM Deutschland GmbH / Vorsitzender des Aufsichtsrats: Martin Jetter<br>Geschäftsführung: Martina Koederitz (Vorsitzende), Susanne Peter, Norbert
Janzen, Dr. Christian Keller, Ivo Koerner, Markus Koerner<br>Sitz der Gesellschaft: Ehningen / Registergericht: Amtsgericht Stuttgart,
HRB 14562 / WEEE-Reg.-Nr. DE 99369940 </font><font size=3><br><br><br></font><font size=1 color=#5f5f5f face="sans-serif"><br>From:        </font><font size=1 face="sans-serif">"Oesterlin,
Robert" <Robert.Oesterlin@nuance.com></font><font size=1 color=#5f5f5f face="sans-serif"><br>To:        </font><font size=1 face="sans-serif">gpfsug
main discussion list <gpfsug-discuss@spectrumscale.org></font><font size=1 color=#5f5f5f face="sans-serif"><br>Date:        </font><font size=1 face="sans-serif">12/20/2016
08:19 PM</font><font size=1 color=#5f5f5f face="sans-serif"><br>Subject:        </font><font size=1 face="sans-serif">Re:
[gpfsug-discuss] LROC</font><font size=1 color=#5f5f5f face="sans-serif"><br>Sent by:        </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><font size=3><br></font><hr noshade><font size=3><br><br></font><font size=2 face="Calibri"><br>We’re currently deploying LROC in many of our compute nodes – results
so far have been excellent. We’re putting in 240gb SSDs, because we have
mostly small files. As far as I know, the amount of inodes and directories
in LROC are not limited, except by the size of the cache disk.<br> <br>Look at these config options for LROC:<br> </font><font size=2 face="Courier"><b><br>lrocData</b></font><font size=2 face="Arial"><br>Controls whether user data is populated into the local read-only cache.
Other configuration options can be used to select the data that is eligible
for the local read-only cache. When using more than one such configuration
option, data that matches any of the specified criteria is eligible to
be saved.<br>Valid values are <b>yes</b> or <b>no</b>. The default value is <b>yes</b>.<br>If <b>lrocData</b> is set to <b>yes</b>, by default the data that was not
already in the cache when accessed by a user is subsequently saved to the
local read-only cache. The default behavior can be overridden using the<b>lrocDataMaxFileSize</b>and <b>lrocDataStubFileSize</b>configuration options to save all data from
small files or all data from the initial portion of large files.</font><font size=2 face="Courier"><b><br>lrocDataMaxFileSize</b></font><font size=2 face="Arial"><br>Limits the data that may be saved in the local read-only cache to only
the data from small files.<br>A value of -1 indicates that all data is eligible to be saved. A value
of 0 indicates that small files are not to be saved. A positive value indicates
the maximum size of a file to be considered for the local read-only cache.
For example, a value of 32768 indicates that files with 32 KB of data or
less are eligible to be saved in the local read-only cache. The default
value is 0.</font><font size=2 face="Courier"><b><br>lrocDataStubFileSize</b></font><font size=2 face="Arial"><br>Limits the data that may be saved in the local read-only cache to only
the data from the first portion of all files.<br>A value of -1 indicates that all file data is eligible to be saved. A value
of 0 indicates that stub data is not eligible to be saved. A positive value
indicates that the initial portion of each file that is eligible is to
be saved. For example, a value of 32768 indicates that the first 32 KB
of data from each file is eligible to be saved in the local read-only cache.
The default value is 0.</font><font size=2 face="Courier"><b><br>lrocDirectories</b></font><font size=2 face="Arial"><br>Controls whether directory blocks is populated into the local read-only
cache. The option also controls other file system metadata such as indirect
blocks, symbolic links, and extended attribute overflow blocks.<br>Valid values are <b>yes</b> or <b>no</b>. The default value is <b>yes</b>.</font><font size=2 face="Courier"><b><br>lrocInodes</b></font><font size=2 face="Arial"><br>Controls whether inodes from open files is populated into the local read-only
cache; the cache contains the full inode, including all disk pointers,
extended attributes, and data.<br>Valid values are <b>yes</b> or <b>no</b>. The default value is <b>yes</b>.</font><font size=2 face="Calibri"><br> <br> </font><font size=3 face="Calibri"><br>Bob Oesterlin<br>Sr Principal Storage Engineer, Nuance<br>507-269-0413</font><font size=3 face="Times New Roman"><br> </font><font size=2 face="Calibri"><br> <br> </font><font size=3 face="Calibri"><b><br>From: </b><gpfsug-discuss-bounces@spectrumscale.org> on behalf of
Matt Weil <mweil@wustl.edu><b><br>Reply-To: </b>gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><b><br>Date: </b>Tuesday, December 20, 2016 at 1:13 PM<b><br>To: </b>"gpfsug-discuss@spectrumscale.org" <gpfsug-discuss@spectrumscale.org><b><br>Subject: </b>[EXTERNAL] Re: [gpfsug-discuss] LROC</font><font size=3 face="Times New Roman"><br> </font><p><font size=3 face="Times New Roman">as many as possible and both</font><p><font size=3 face="Times New Roman">have maxFilesToCache 128000</font><p><font size=3 face="Times New Roman">and maxStatCache 40000</font><p><font size=3 face="Times New Roman">do these effect what sits on the
LROC as well?  Are those to small? 1million seemed excessive.<br> <br>On 12/20/16 11:03 AM, Sven Oehme wrote:<br>how much files do you want to cache ?  <br>and do you only want to cache metadata or also data associated to the files
?<br> <br>sven<br> <br> <br> <br>On Tue, Dec 20, 2016 at 5:35 PM Matt Weil <</font><a href=mailto:mweil@wustl.edu><font size=3 color=blue face="Times New Roman"><u>mweil@wustl.edu</u></font></a><font size=3 face="Times New Roman">>
wrote:</font><font size=3 color=blue><u><br></u></font><a href="https://urldefense.proofpoint.com/v2/url?u=https-3A__www.ibm.com_developerworks_community_wikis_home-3Flang-3Den-23-2521_wiki_General-2520Parallel-2520File-2520System-2520-2528GPFS-2529_page_Flash-2520Storage&d=DgMD-g&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=D9PgR75CqOuL7nxcynOJv1fayX8BDPrsoSt83TFc8sE&s=6G1jlkjDVKTD9tPVCnAIlmVwgzjLahUX8GYNQrSmvBM&e=" target=_blank><font size=3 color=blue face="Times New Roman"><u>https://www.ibm.com/developerworks/community/wikis/home?lang=en#!/wiki/General%20Parallel%20File%20System%20(GPFS)/page/Flash%20Storage</u></font></a><font size=3 face="Times New Roman"><br><br>Hello all,<br><br>Are there any tuning recommendations to get these to cache more metadata?<br><br>Thanks<br><br>Matt<br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at </font><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__spectrumscale.org&d=DgMD-g&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=D9PgR75CqOuL7nxcynOJv1fayX8BDPrsoSt83TFc8sE&s=H8L4Lw9j9AYJkyQbnBT3li4LKSJ83994bWWYdc3GylU&e=" target=_blank><font size=3 color=blue face="Times New Roman"><u>spectrumscale.org</u></font></a><font size=3 color=blue><u><br></u></font><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DgMD-g&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=D9PgR75CqOuL7nxcynOJv1fayX8BDPrsoSt83TFc8sE&s=nAjj-yiG02HTaf_5AiE5LZA-gYS27y2Diy_FcbIDT-0&e=" target=_blank><font size=3 color=blue face="Times New Roman"><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><font size=3 face="Times New Roman"><br><br></font><font size=3><br></font><font size=2><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font><font size=3 color=blue><u><br></u></font><a href="https://urldefense.proofpoint.com/v2/url?u=http-3A__gpfsug.org_mailman_listinfo_gpfsug-2Ddiscuss&d=DgMD-g&c=djjh8EKwHtOepW4Bjau0lKhLlu-DxM1dlgP0rrLsOzY&r=LPDewt1Z4o9eKc86MXmhqX-45Cz1yz1ylYELF9olLKU&m=D9PgR75CqOuL7nxcynOJv1fayX8BDPrsoSt83TFc8sE&s=nAjj-yiG02HTaf_5AiE5LZA-gYS27y2Diy_FcbIDT-0&e="><font size=2 color=blue><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></a><font size=3 face="Times New Roman"><br></font><tt><font size=2><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org</font></tt><font size=3 color=blue><u><br></u></font><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2 color=blue><u>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</u></font></tt></a><font size=3><br><br></font><p><tt><font size=2>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br></font></tt><p><p><BR>