<div class="gmail_extra">However, the standard does contain the following (MPI-3.0 page 175)</div><div class="gmail_extra"><br></div><div class="gmail_extra"><div class="gmail_extra"><i>Advice to implementors.</i></div><div class="gmail_extra">
<i>It is strongly recommended that MPI_REDUCE be im-</i></div><div class="gmail_extra"><i>plemented so that the same result be obtained whenever the function is applied on</i></div><div class="gmail_extra"><i>the same arguments, appearing in the same order. Note that this may prevent op-</i></div>
<div class="gmail_extra"><i>timizations that take advantage of the physical location of ranks. (End of advice to</i></div><div class="gmail_extra"><i>implementors.)</i></div><div class="gmail_extra"><br></div><div class="gmail_extra">
It would be useful to have a table of which implementations adhere to this advice.</div><br><div class="gmail_quote">On Mon, Nov 12, 2012 at 9:35 PM, Pavan Balaji <span dir="ltr"><<a href="mailto:balaji@mcs.anl.gov" target="_blank">balaji@mcs.anl.gov</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><div id=":1gf">The MPI standard does not guarantee this.  For example, an<br>

implementation could use topology-aware reductions or an MPI_ANY_SOURCE<br>
while waiting for messages from peers making the order in which the<br>
reduction operations are applied different for each run.</div></blockquote></div><br></div>