<font size=2 face="sans-serif">Hi,</font><br><font size=2 face="sans-serif">  Just as Jaime has explained,
any GPFS node in the cluster, can induce a recall (as he called "staged")
by access to file data.  It is not optimized by tape order, and a
dynamic file access of any pattern, such as "find" or "cat
*"  will surely result in an inefficient processing of the data
recall if all data lives in physical tape.   But if migrated data
lives on spinning disk on the TSM server, there is no harm in such a recall
pattern because recalls from a disk pool incur no significant overhead
or delay for tape loading and positioning.</font><br><br><font size=2 face="sans-serif">  Unprivileged users may not run
"dsmcrecall" because creating a DMAPI session as the dsmrecall
program must do, requires admin user privilege on that node.  You
may be able to wrap dsmrecall in a set-uid wrapper if you want to permit
users to run that, but of course that comes with the danger that a recall
storm could monopolize resources on your cluster.</font><br><font size=2 face="sans-serif">Regards, The Spectrum Scale (GPFS) team<br><br>------------------------------------------------------------------------------------------------------------------<br>If you feel that your question can benefit other users of  Spectrum
Scale (GPFS), then please post it to the public IBM developerWroks Forum
at </font><a href="https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479"><font size=2 face="sans-serif">https://www.ibm.com/developerworks/community/forums/html/forum?id=11111111-0000-0000-0000-000000000479</font></a><font size=2 face="sans-serif">.
<br><br>If your query concerns a potential software error in Spectrum Scale (GPFS)
and you have an IBM software maintenance contract please contact  1-800-237-5511
in the United States or your local IBM Service Center in other countries.
<br><br>The forum is informally monitored as time permits and should not be used
for priority messages to the Spectrum Scale (GPFS) team.</font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From:      
 </font><font size=1 face="sans-serif">"Jaime Pinto"
<pinto@scinet.utoronto.ca></font><br><font size=1 color=#5f5f5f face="sans-serif">To:      
 </font><font size=1 face="sans-serif">"Andrew Beattie"
<abeattie@au1.ibm.com></font><br><font size=1 color=#5f5f5f face="sans-serif">Cc:      
 </font><font size=1 face="sans-serif">gpfsug-discuss@spectrumscale.org</font><br><font size=1 color=#5f5f5f face="sans-serif">Date:      
 </font><font size=1 face="sans-serif">06/02/2017 11:13 AM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject:    
   </font><font size=1 face="sans-serif">Re: [gpfsug-discuss]
Spectrum Scale - Spectrum Protect        -
       SpaceManagement (GPFS HSM)</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by:    
   </font><font size=1 face="sans-serif">gpfsug-discuss-bounces@spectrumscale.org</font><br><hr noshade><br><br><br><tt><font size=2>It has been a while since I used HSM with GPFS via
TSM, but as far as  <br>I can remember, unprivileged users can run dsmmigrate and dsmrecall.<br><br>Based on the instructions on the link, dsmrecall may now leverage the  <br>Recommended Access Order (RAO) available on enterprise drives, however
 <br>root would have to be the one to invoke that feature.<br><br>In that case we may have to develop a middleware/wrapper for dsmrecall
 <br>that will run as root and act on behalf of the user when optimization  <br>is requested.<br><br>Someone here more familiar with the latest version of TSM-HSM may be  <br>able to give us some hints on how people are doing this in practice.<br><br>Jaime<br><br><br><br><br>Quoting "Andrew Beattie" <abeattie@au1.ibm.com>:<br><br>> Thanks Jaime,     How do you get around Optimised recalls?
from what I<br>> can see the optimised recall process needs a root level account to<br>> retrieve a list of files<br>> </font></tt><a href=https://www.ibm.com/support/knowledgecenter/SSSR2R_7.1.1/com.ibm.itsm.hsmul.doc/c_recall_optimized_tape.html><tt><font size=2>https://www.ibm.com/support/knowledgecenter/SSSR2R_7.1.1/com.ibm.itsm.hsmul.doc/c_recall_optimized_tape.html</font></tt></a><tt><font size=2>[1]<br>>     Regards, Andrew Beattie Software Defined Storage  -
IT Specialist<br>> Phone: 614-2133-7927 E-mail: abeattie@au1.ibm.com[2]    
-----<br>> Original message -----<br>> From: "Jaime Pinto" <pinto@scinet.utoronto.ca><br>> To: "gpfsug main discussion list" <gpfsug-discuss@spectrumscale.org>,<br>> "Andrew Beattie" <abeattie@au1.ibm.com><br>> Cc: gpfsug-discuss@spectrumscale.org<br>> Subject: Re: [gpfsug-discuss] Spectrum Scale - Spectrum Protect -<br>> Space Management (GPFS HSM)<br>> Date: Fri, Jun 2, 2017 7:28 PM<br>>   We have that situation.<br>> Users don't need to login to NSD's<br>><br>> What you need is to add at least one gpfs client to the cluster (or<br>> multi-cluster), mount the DMAPI enabled file system, and use that<br>> node<br>> as a gateway for end-users. They can access the contents on the mount<br>><br>> point with their own underprivileged accounts.<br>><br>> Whether or not on a schedule, the moment an application or linux<br>> command (such as cp, cat, vi, etc) accesses a stub, the file will
be<br>><br>> staged.<br>><br>> Jaime<br>><br>> Quoting "Andrew Beattie" <abeattie@au1.ibm.com>:<br>><br>>> Quick question,   Does anyone have a Scale / GPFS environment
(HPC)<br>>> where users need the ability to recall data sets after they have<br>> been<br>>> stubbed, but only System Administrators are permitted to log onto<br>> the<br>>> NSD servers for security purposes.   And if so how do you
provide<br>> the<br>>> ability for the users to schedule their data set recalls?<br>> Regards,<br>>> Andrew Beattie Software Defined Storage  - IT Specialist
Phone:<br>>> 614-2133-7927 E-mail: abeattie@au1.ibm.com[1]<br>>><br>>><br>>> Links:<br>>> ------<br>>> [1] </font></tt><a href=mailto:abeattie@au1.ibm.com><tt><font size=2>mailto:abeattie@au1.ibm.com</font></tt></a><tt><font size=2>[3]<br>>><br>><br>>           ************************************<br>>            TELL US ABOUT YOUR SUCCESS
STORIES<br>>           </font></tt><a href=http://www.scinethpc.ca/testimonials><tt><font size=2>http://www.scinethpc.ca/testimonials</font></tt></a><tt><font size=2>[4]<br>>           ************************************<br>> ---<br>> Jaime Pinto<br>> SciNet HPC Consortium - Compute/Calcul Canada<br>> </font></tt><a href=www.scinet.utoronto.ca><tt><font size=2>www.scinet.utoronto.ca</font></tt></a><tt><font size=2>- </font></tt><a href=www.computecanada.ca><tt><font size=2>www.computecanada.ca</font></tt></a><tt><font size=2><br>> University of Toronto<br>> 661 University Ave. (MaRS), Suite 1140<br>> Toronto, ON, M5G1M1<br>> P: 416-978-2755<br>> C: 416-505-1477<br>><br><br><br>----------------------------------------------------------------<br>This message was sent using IMP at SciNet Consortium, University of Toronto.<br><br>_______________________________________________<br>gpfsug-discuss mailing list<br>gpfsug-discuss at spectrumscale.org<br></font></tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss"><tt><font size=2>http://gpfsug.org/mailman/listinfo/gpfsug-discuss</font></tt></a><tt><font size=2><br><br></font></tt><br><br><BR>