<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns:mv="http://macVmlSchemaUri" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<meta name="Title" content="">
<meta name="Keywords" content="">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<!--[if !mso]><style>v\:* {behavior:url(#default#VML);}
o\:* {behavior:url(#default#VML);}
w\:* {behavior:url(#default#VML);}
.shape {behavior:url(#default#VML);}
</style><![endif]--><style><!--
/* Font Definitions */
@font-face
        {font-family:"Courier New";
        panose-1:2 7 3 9 2 2 5 2 4 4;}
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:12.0pt;
        font-family:"Times New Roman";}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:purple;
        text-decoration:underline;}
p
        {mso-style-priority:99;
        mso-margin-top-alt:auto;
        margin-right:0in;
        mso-margin-bottom-alt:auto;
        margin-left:0in;
        font-size:12.0pt;
        font-family:"Times New Roman";}
tt
        {mso-style-priority:99;
        font-family:"Courier New";}
span.EmailStyle19
        {mso-style-type:personal-reply;
        font-family:Calibri;
        color:windowtext;}
span.msoIns
        {mso-style-type:export-only;
        mso-style-name:"";
        text-decoration:underline;
        color:teal;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:10.0pt;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style>
</head>
<body bgcolor="white" lang="EN-US" link="blue" vlink="purple">
<div class="WordSection1">
<p class="MsoNormal"><span style="font-size:11.0pt;font-family:Calibri">Ok.  I re-read the FAQ and I think the option in the Table is a bit misleading.  I think it means it’s supported without direct disk access and that means GPFS client not an NSD.  Sound
 right?<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;font-family:Calibri"><o:p> </o:p></span></p>
<div style="border:none;border-top:solid #B5C4DF 1.0pt;padding:3.0pt 0in 0in 0in">
<p class="MsoNormal"><b><span style="font-family:Calibri;color:black">From: </span>
</b><span style="font-family:Calibri;color:black"><gpfsug-discuss-bounces@spectrumscale.org> on behalf of Sanjay Gandhi <gsanjay@us.ibm.com><br>
<b>Reply-To: </b>gpfsug main discussion list <gpfsug-discuss@spectrumscale.org><br>
<b>Date: </b>Tuesday, October 25, 2016 at 2:48 PM<br>
<b>To: </b>"gpfsug-discuss@spectrumscale.org" <gpfsug-discuss@spectrumscale.org><br>
<b>Subject: </b>Re: [gpfsug-discuss] gpfsug-discuss Digest, Vol 57, Issue 66<o:p></o:p></span></p>
</div>
<div>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
<p>VMDK is not supported due to <a href="http://kb.vmware.com/kb/2032940">http://kb.vmware.com/kb/2032940</a><br>
<br>
It can cause GPFS deadlock due to hung IO.<br>
<br>
<br>
Thanks,<br>
Sanjay Gandhi<br>
GPFS FVT<br>
IBM, Beaverton<br>
Phone/FAX : 503-578-4141 T/L 775-4141<br>
gsanjay@us.ibm.com<br>
<br>
<img border="0" width="16" height="16" id="_x0000_i1025" src="cid:image001.gif@01D22ECF.2DED4C80" alt="nactive hide details for gpfsug-discuss-request---10/25/2016 12:35:04 PM-"><span style="color:#424282">gpfsug-discuss-request---10/25/2016 12:35:04 PM---Send
 gpfsug-discuss mailing list submissions to gpfsug-discuss@spectrumscale.org</span><br>
<br>
<span style="font-size:10.0pt;color:#5F5F5F">From: </span><span style="font-size:10.0pt">gpfsug-discuss-request@spectrumscale.org</span><br>
<span style="font-size:10.0pt;color:#5F5F5F">To: </span><span style="font-size:10.0pt">gpfsug-discuss@spectrumscale.org</span><br>
<span style="font-size:10.0pt;color:#5F5F5F">Date: </span><span style="font-size:10.0pt">10/25/2016 12:35 PM</span><br>
<span style="font-size:10.0pt;color:#5F5F5F">Subject: </span><span style="font-size:10.0pt">gpfsug-discuss Digest, Vol 57, Issue 66</span><br>
<span style="font-size:10.0pt;color:#5F5F5F">Sent by: </span><span style="font-size:10.0pt">gpfsug-discuss-bounces@spectrumscale.org</span><o:p></o:p></p>
<div class="MsoNormal">
<hr size="2" width="100%" noshade="" style="color:#8091A5" align="left">
</div>
<p class="MsoNormal"><br>
<br>
<br>
<tt><span style="font-size:10.0pt">Send gpfsug-discuss mailing list submissions to</span></tt><span style="font-size:10.0pt;font-family:"Courier New""><br>
<tt>gpfsug-discuss@spectrumscale.org</tt><br>
<br>
<tt>To subscribe or unsubscribe via the World Wide Web, visit</tt><br>
<tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></tt><br>
<tt>or, via email, send a message with subject or body 'help' to</tt><br>
<tt>gpfsug-discuss-request@spectrumscale.org</tt><br>
<br>
<tt>You can reach the person managing the list at</tt><br>
<tt>gpfsug-discuss-owner@spectrumscale.org</tt><br>
<br>
<tt>When replying, please edit your Subject line so it is more specific</tt><br>
<tt>than "Re: Contents of gpfsug-discuss digest..."</tt><br>
<br>
<br>
<tt>Today's Topics:</tt><br>
<br>
<tt>  1. Re: Virtualized Spectrum Scale (Mark.Bush@siriuscom.com)</tt><br>
<br>
<br>
<tt>----------------------------------------------------------------------</tt><br>
<br>
<tt>Message: 1</tt><br>
<tt>Date: Tue, 25 Oct 2016 19:34:29 +0000</tt><br>
<tt>From: "Mark.Bush@siriuscom.com" <Mark.Bush@siriuscom.com></tt><br>
<tt>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></tt><br>
<tt>Subject: Re: [gpfsug-discuss] Virtualized Spectrum Scale</tt><br>
<tt>Message-ID: <5482A551-873C-4F9F-89BF-0CF0FB926D92@siriuscom.com></tt><br>
<tt>Content-Type: text/plain; charset="utf-8"</tt><br>
<br>
<tt>This is interesting since the SS FAQ leads me to believe that I have some options here.  Does GPFS nodes with no direct disk access still mean RDMs?</tt><br>
<br>
<tt>[<a href="cid:image001.png@01D22ECC.E20EC2F0">cid:image001.png@01D22ECC.E20EC2F0</a>]</tt><br>
<br>
<tt>From: <gpfsug-discuss-bounces@spectrumscale.org> on behalf of Luis Bolinches <luis.bolinches@fi.ibm.com></tt><br>
<tt>Reply-To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></tt><br>
<tt>Date: Tuesday, October 25, 2016 at 1:58 PM</tt><br>
<tt>To: gpfsug main discussion list <gpfsug-discuss@spectrumscale.org></tt><br>
<tt>Subject: Re: [gpfsug-discuss] Virtualized Spectrum Scale</tt><br>
<br>
<tt>Hi</tt><br>
<br>
<tt>You must use RDM. Otherwise is not supported. SCSI commands is the reason.</tt><br>
<br>
<tt>Furthermore on some versions I managed to crash the ESXi as well.</tt><br>
<br>
<tt>--</tt><br>
<tt>Cheers</tt><br>
<br>
<tt>On 25 Oct 2016, at 19.46, "Mark.Bush@siriuscom.com<<a href="mailto:Mark.Bush@siriuscom.com">mailto:Mark.Bush@siriuscom.com</a>>" <Mark.Bush@siriuscom.com<<a href="mailto:Mark.Bush@siriuscom.com">mailto:Mark.Bush@siriuscom.com</a>>> wrote:</tt><br>
<tt>Anyone running SpectrumScale on Virtual Machines (intel)?  I?m curious how you manage disks?  Do you use RDM?s?  Does this even make sense to do?  If you have a 2-3 node cluster how do you share the disks across?  Do you have VM?s with their own VMDK?s
 (if not RDM) in each node or is there some way to share access to the same VMDK?s?  What are the advantages doing this other than existing HW use?  Seems to me for a lab environment or very small nonperformance focused implementation this may be a viable option.</tt><br>
<br>
<tt>Thanks</tt><br>
<br>
<tt>Mark</tt><br>
<br>
<tt>This message (including any attachments) is intended only for the use of the individual or entity to which it is addressed and may contain information that is non-public, proprietary, privileged, confidential, and exempt from disclosure under applicable
 law. If you are not the intended recipient, you are hereby notified that any use, dissemination, distribution, or copying of this communication is strictly prohibited. This message may be viewed by parties at Sirius Computer Solutions other than those named
 in the message header. This message does not contain an official representation of Sirius Computer Solutions. If you have received this communication in error, notify Sirius Computer Solutions immediately and (i) destroy this message if a facsimile or (ii)
 delete this message immediately if this is an electronic communication. Thank you.</tt><br>
<tt>Sirius Computer Solutions<<a href="http://www.siriuscom.com">http://www.siriuscom.com</a>></tt><br>
<br>
<tt>Ellei edell? ole toisin mainittu: / Unless stated otherwise above:</tt><br>
<tt>Oy IBM Finland Ab</tt><br>
<tt>PL 265, 00101 Helsinki, Finland</tt><br>
<tt>Business ID, Y-tunnus: 0195876-3</tt><br>
<tt>Registered in Finland</tt><br>
<br>
<br>
<tt>-------------- next part --------------</tt><br>
<tt>An HTML attachment was scrubbed...</tt><br>
<tt>URL: <<a href="http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20161025/fc9a8bf7/attachment.html">http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20161025/fc9a8bf7/attachment.html</a>></tt><br>
<tt>-------------- next part --------------</tt><br>
<tt>A non-text attachment was scrubbed...</tt><br>
<tt>Name: image001.png</tt><br>
<tt>Type: image/png</tt><br>
<tt>Size: 169073 bytes</tt><br>
<tt>Desc: image001.png</tt><br>
<tt>URL: <<a href="http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20161025/fc9a8bf7/attachment.png">http://gpfsug.org/pipermail/gpfsug-discuss/attachments/20161025/fc9a8bf7/attachment.png</a>></tt><br>
<br>
<tt>------------------------------</tt><br>
<br>
<tt>_______________________________________________</tt><br>
<tt>gpfsug-discuss mailing list</tt><br>
<tt>gpfsug-discuss at spectrumscale.org</tt><br>
<tt><a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss">http://gpfsug.org/mailman/listinfo/gpfsug-discuss</a></tt><br>
<br>
<br>
<tt>End of gpfsug-discuss Digest, Vol 57, Issue 66</tt><br>
<tt>**********************************************</tt><br>
<br>
</span><br>
<br>
<br>
<br>
<o:p></o:p></p>
</div>
</body>
</html>