<div dir="ltr">Thank you, I will try TotalView.<div style>Now another question:</div><div style>---In C we can run program with valgrind and it tells you exactly where memory is lost, when you use unitialized values and so on.</div>
<div style>---In fortran with ifort you can run with</div><div style>-warn interfaces,nouncalled -fpp -gen-interface -g -traceback -check uninit -check bounds -check pointers<br></div><div style>and you can do the same.</div>
<div style><br></div><div style>It would be extremely helpful to have similar tools in MPI that sacrifice speed</div><div style>and allows you to find any error during runtime.</div><div style><br></div><div style>  Mathieu</div>
</div><div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Feb 26, 2013 at 5:01 PM, Dave Goodell <span dir="ltr"><<a href="mailto:goodell@mcs.anl.gov" target="_blank">goodell@mcs.anl.gov</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">On Feb 26, 2013, at 9:39 AM CST, Mathieu Dutour wrote:<br>
<br>
> I used mpich-3.0.1 with debugging options and the program ran correctly<br>
> but at the end returned some errors indicated later.<br>
> I thank mpich for finding those errors that other mpi implementation did<br>
> not find but I wonder if there is a way to transform this into more useful<br>
> debugging informations.<br>
<br>
</div>High-quality patches to improve the output are welcome.  We primarily view these leak-checking messages as tools for us (the core developers of MPICH), not for end-user consumption.  So we probably won't spend any time to change these messages ourselves.<br>

<div class="im"><br>
>   Mathieu<br>
><br>
> PS: The errors retuned after leaving:<br>
> leaked context IDs detected: mask=0x9d7380 mask[0]=0x3fffffff<br>
> In direct memory block for handle type GROUP, 3 handles are still allocated<br>
<br>
</div>[…]<br>
<br>
In case you have not yet found your bug, these messages are indicating that you are leaking MPI objects, especially communicators, groups, and datatypes.  It could be that they are leaked indirectly because you have not completed an outstanding request (via MPI_Wait or similar), as indicated by the lines with "REQUEST" in them.<br>

<br>
-Dave<br>
<br>
_______________________________________________<br>
discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
</blockquote></div><br></div>