<div dir="ltr"><div><div>Hi Antonio,<br></div>Thanks for response.<br></div>Here is output of iperf bandwidth test.<br>.<br>Client connecting to 10g2, TCP port 5001<br>TCP window size: 1.41 MByte (default)<br>------------------------------------------------------------<br>
[  5] local 192.168.1.33 port 34543 connected with 192.168.1.34 port 5001<br>[  4] local 192.168.1.33 port 5001 connected with 192.168.1.34 port 48531<br>[ ID] Interval       Transfer     Bandwidth<br>[  5]  0.0-10.0 sec  11.2 GBytes  9.61 Gbits/sec<br>
[  4]  0.0-10.0 sec  11.2 GBytes  9.59 Gbits/sec<br><br></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Apr 15, 2014 at 7:17 PM, "Antonio J. Peña" <span dir="ltr"><<a href="mailto:apenya@mcs.anl.gov" target="_blank">apenya@mcs.anl.gov</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
  
    
  
  <div bgcolor="#FFFFFF" text="#000000">
    <div><br>
      Hi Ansar,<br>
      <br>
      The bandwidth numbers seem a little low. I'd expect something
      around 7,000 Mbps. To discard issues with MPI, you can try generic
      benchmarking tools such as those described here><br>
      <br>
<a href="http://linuxaria.com/article/tool-command-line-bandwidth-linux?lang=en" target="_blank">http://linuxaria.com/article/tool-command-line-bandwidth-linux?lang=en</a><br>
      <br>
      If you get similar numbers, you'll have to check your setup.
      Otherwise, let us know and we'll try to see if there's any
      performance issue with MPICH.<br>
      <br>
      Best,<br>
        Antonio<div><div class="h5"><br>
      <br>
      <br>
      On 04/15/2014 06:35 AM, Muhammad Ansar Javed wrote:<br>
    </div></div></div>
    <blockquote type="cite"><div><div class="h5">
      
      <div dir="ltr">
        <div>Hi,<br>
          I am running benchmarks for MPICH v3.1 performance evaluation
          on 10G Ethernet connection between two hosts. The performance
          results are less than expected. Here is complete set of
          numbers for Latency and Bandwidth tests.<br>
          <br>
          mpj@host3:~/code/benchmarks$ mpiexec -n 2 -f machines
          ./latency.out<br>
          Latency: MPICH-C<br>
          Size ______ Time (us)<br>
          1 _________ 37.91<br>
          2 _________ 37.76<br>
          4 _________ 37.75<br>
          8 _________ 39.02<br>
          16 ________ 52.71<br>
          32 ________ 39.08<br>
          64 ________ 37.75<br>
          128 _______ 37.77<br>
          256 _______ 57.47<br>
          512 _______ 37.86<br>
          1024 ______ 37.76<br>
          2048 ______ 37.88<br>
          <br>
          mpj@host3:~/code/benchmarks$ mpiexec -n 2 -f machines
          ./bandwidth.out<br>
          Bandwidth: MPICH-C   <br>
          Size(Bytes) Bandwidth (Mbps)<br>
          2048 ______ 412.32<br>
          4096 ______ 820.06<br>
          8192 ______ 827.77<br>
          16384 _____ 1644.36<br>
          32768 _____ 2207.52<br>
          65536 _____ 4368.76<br>
          131072 ____ 2942.93<br>
          262144 ____ 4281.17<br>
          524288 ____ 4773.78<br>
          1048576 ___ 5310.85<br>
          2097152 ___ 5382.94<br>
          4194304 ___ 5518.97<br>
          8388608 ___ 5508.87<br>
          16777216 __ 5498.93<br>
          <br>
          My environments consists of two hosts having point-to-point
          (switch-less) 10Gbps Ethernet connection.  Environment (OS,
          user, directory structure etc) on both hosts is exactly same.
          There is no NAS or shared file system between hosts. I have
          attached output of script <br>
          mpiexec -all.<br>
          <br>
          Are these numbers okay? If not then please suggest performance
          improvement methodology...<br>
          <br>
        </div>
        Thanks<br>
        <br>
        <div>-- <br>
          <div dir="ltr">Regards<br>
            <br>
            Ansar Javed<br>
            HPC Lab<br>
            SEECS NUST <br>
            Contact: <a href="tel:%2B92%20334%20438%209394" value="+923344389394" target="_blank">+92 334 438 9394</a><br>
            Email: <a href="mailto:muhammad.ansar@seecs.edu.pk" target="_blank">muhammad.ansar@seecs.edu.pk</a><br>
          </div>
        </div>
      </div>
      <br>
      <fieldset></fieldset>
      <br>
      </div></div><pre>_______________________________________________
discuss mailing list     <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a>
To manage subscription options or unsubscribe:
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a></pre><span class="HOEnZb"><font color="#888888">
    </font></span></blockquote><span class="HOEnZb"><font color="#888888">
    <br>
    <br>
    <pre cols="72">-- 
Antonio J. Peña
Postdoctoral Appointee
Mathematics and Computer Science Division
Argonne National Laboratory
9700 South Cass Avenue, Bldg. 240, Of. 3148
Argonne, IL 60439-4847
<a href="mailto:apenya@mcs.anl.gov" target="_blank">apenya@mcs.anl.gov</a>
<a href="http://www.mcs.anl.gov/~apenya" target="_blank">www.mcs.anl.gov/~apenya</a></pre>
  </font></span></div>

<br>_______________________________________________<br>
discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br></blockquote></div><br><br clear="all"><br>-- <br><div dir="ltr">Regards<br><br>Ansar Javed<br>
HPC Lab<br>SEECS NUST <br>Contact: +92 334 438 9394<br>Email: <a href="mailto:muhammad.ansar@seecs.edu.pk" target="_blank">muhammad.ansar@seecs.edu.pk</a><br></div>
</div>