<div dir="ltr"><br>Maybe multipath is not seeing all of the wwns?<br><div class="gmail_extra"><br></div><div class="gmail_extra">multipath -v3 | grep ^51855 look ok?<br><br></div><div class="gmail_extra">For some unknown reason multipath does not see our sandisk array...we have to add them to the end of /etc/multipath/wwids file<br><br></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jan 20, 2017 at 10:32 AM, David D. Johnson <span dir="ltr"><<a href="mailto:david_johnson@brown.edu" target="_blank">david_johnson@brown.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word">We have most of our GPFS NSD storage set up as pairs of RAID boxes served by failover pairs of servers.<div>Most of it is FibreChannel, but the newest four boxes and servers are using dual port SAS controllers.</div><div>Just this week, we had one server lose one out of the paths to one of the raid boxes. Took a while</div><div>to realize what happened, but apparently the port2 ID changed from 51866da05cf7b001 to</div><div>51866da05cf7b002 on the fly, without rebooting.  Port1 is still 51866da05cf7b000, which is the card ID (host_add).</div><div><br></div><div>We’re running gpfs 4.2.2.1 on RHEL7.2 on these hosts.</div><div><br></div><div>Has anyone else seen this kind of behavior? </div><div>First noticed these messages, 3 hours 13 minutes after boot:</div><div><div style="margin:0px;font-size:17px;line-height:normal;font-family:Menlo"><span style="font-variant-ligatures:no-common-ligatures">Jan 10 13:15:53 storage043 kernel: megasas: Err returned from build_and_issue_cmd</span></div><div style="margin:0px;font-size:17px;line-height:normal;font-family:Menlo"><span style="font-variant-ligatures:no-common-ligatures">Jan 10 13:15:53 storage043 kernel: megasas: Err returned from build_and_issue_cmd</span></div><div style="margin:0px;font-size:17px;line-height:normal;font-family:Menlo"><span style="font-variant-ligatures:no-common-ligatures">Jan 10 13:15:53 storage043 kernel: megasas: Err returned from build_and_issue_cmd</span></div><div style="margin:0px;font-size:17px;line-height:normal;font-family:Menlo"><span style="font-variant-ligatures:no-common-ligatures">Jan 10 13:15:53 storage043 kernel: megasas: Err returned from build_and_issue_cmd</span></div><div style="margin:0px;font-size:17px;line-height:normal;font-family:Menlo"><span style="font-variant-ligatures:no-common-ligatures">Jan 10 13:15:53 storage043 kernel: megasas: Err returned from build_and_issue_cmd</span></div><div style="margin:0px;font-size:17px;line-height:normal;font-family:Menlo"><span style="font-variant-ligatures:no-common-ligatures">Jan 10 13:15:53 storage043 kernel: megasas: Err returned from build_and_issue_cmd</span></div><div style="margin:0px;font-size:17px;line-height:normal;font-family:Menlo"><span style="font-variant-ligatures:no-common-ligatures">Jan 10 13:15:53 storage043 kernel: megasas: Err returned from build_and_issue_cmd</span></div></div><div><span style="font-variant-ligatures:no-common-ligatures"><br></span></div><div>The multipath daemon was sending lots of log messages like:</div><div><div style="margin:0px;font-size:17px;line-height:normal;font-family:Menlo"><span style="font-variant-ligatures:no-common-ligatures">Jan 10 13:49:22 storage043 multipathd: mpathw: load table [0 4642340864 multipath 3 pg_init_retries 50 queue_if_no_path 1 rdac 1 1 round-robin 0 1 1 8:64 1]</span></div><div style="margin:0px;font-size:17px;line-height:normal;font-family:Menlo"><span style="font-variant-ligatures:no-common-ligatures">Jan 10 13:49:22 storage043 multipathd: mpathaa: load table [0 4642340864 multipath 3 pg_init_retries 50 queue_if_no_path 1 rdac 1 1 round-robin 0 1 1 8:96 1]</span></div><div style="margin:0px;font-size:17px;line-height:normal;font-family:Menlo"><span style="font-variant-ligatures:no-common-ligatures">Jan 10 13:49:22 storage043 multipathd: mpathx: load table [0 4642340864 multipath 3 pg_init_retries 50 queue_if_no_path 1 rdac 1 1 round-robin 0 1 1 8:128 1]</span></div></div><div><span style="font-variant-ligatures:no-common-ligatures"><br></span></div><div><span style="font-variant-ligatures:no-common-ligatures">Currently worked around problem by including 00 01 and 02 for all 8 SAS cards when mapping LUN/volume to host groups.</span></div><div><span style="font-variant-ligatures:no-common-ligatures"><br></span></div><div><span style="font-variant-ligatures:no-common-ligatures">Thanks,</span></div><div><span style="font-variant-ligatures:no-common-ligatures"> — ddj</span></div><div><span style="font-variant-ligatures:no-common-ligatures">Dave Johnson</span></div><div><span style="font-variant-ligatures:no-common-ligatures">Brown University CCV</span></div></div><br>______________________________<wbr>_________________<br>
gpfsug-discuss mailing list<br>
gpfsug-discuss at <a href="http://spectrumscale.org" rel="noreferrer" target="_blank">spectrumscale.org</a><br>
<a href="http://gpfsug.org/mailman/listinfo/gpfsug-discuss" rel="noreferrer" target="_blank">http://gpfsug.org/mailman/<wbr>listinfo/gpfsug-discuss</a><br>
<br></blockquote></div><br></div></div>