<html><head><meta http-equiv="Content-Type" content="text/html charset=windows-1252"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">Without going through all of your code, I’d suggest making sure that you’re correctly sending and posting receives for all of the messages that you intend. I’d suggest printing out some sort of debugging messages whenever you send a message and make sure they all match up.<div><br></div><div>Wesley<br><div><br><div><div>On Jan 5, 2014, at 10:38 PM, Anatoly G <<a href="mailto:anatolyrishon@gmail.com">anatolyrishon@gmail.com</a>> wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite"><div dir="ltr"><div>Hi.</div>I have created an application. This application fails on MPI error.<br><div class="gmail_quote">Assertion failed in file src/mpid/ch3/channels/nemesis/src/ch3_progress.c at line 640: pkt->type >= 0 && pkt->type < MPIDI_NEM_PKT_END<br>

<div dir="ltr"><div>
<div>internal ABORT - process 0</div></div><div><br></div><div>Scenario:</div><div>Master receives messages from slaves.</div><div>Each slave sends data using MPI_Send.</div><div>Master receives using MPI_Irecv and MPI_Recv.</div>
<div><br></div><div>There are another errors in out*.log files. </div><div>Application doesn't <u>fail</u> with 10 processes, but fails with 20.</div><div><div><br></div><div><div style="font-size:12.666666984558105px;font-family:arial,sans-serif">


execute command:</div><div style="font-size:12.666666984558105px;font-family:arial,sans-serif">mpiexec.hydra -genvall -f MpiConfigMachines1.txt -launcher=rsh -n 20 /home/anatol-g/Grape/release_under_constr_MPI_tests_quantum/bin/linux64/rhe6/g++4.4.6/debug/mpi_rcv_any_multithread 100000 1000000 -1 -1 1 out</div>


</div><div><br></div></div><div>Please help,</div><div><br></div><div>Regards,</div><div>Anatoly.</div><div><br></div><div><br></div></div></div></div>
<span><MpiConfigMachines1.txt></span><span><out_r19.log></span><span><mpi_rcv_any_multithread.cpp></span><span><out_r0.log></span><span><out_r1.log></span><span><out_r2.log></span><span><out_r3.log></span><span><out_r4.log></span><span><out_r5.log></span><span><out_r6.log></span><span><out_r7.log></span><span><out_r8.log></span><span><out_r9.log></span><span><out_r10.log></span><span><out_r11.log></span><span><out_r12.log></span><span><out_r13.log></span><span><out_r14.log></span><span><out_r15.log></span><span><out_r16.log></span><span><out_r17.log></span><span><out_r18.log></span>_______________________________________________<br>discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>To manage subscription options or unsubscribe:<br><a href="https://lists.mpich.org/mailman/listinfo/discuss">https://lists.mpich.org/mailman/listinfo/discuss</a></blockquote></div><br></div></div></body></html>