<html><head>
<meta http-equiv="Content-Type" content="text/html; charset=Windows-1252">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    Hi Siegmar,<br>
    <br>
    I think this is the same issue as you reported several month before.
    This error is caused by unaligned memory access in MPICH internal
    code, which is not allowed on SPARC machines. We have already
    finished a fix patch, but the patch is still in review processing,
    so it is not added into MPICH master branch yet. I will let you know
    once we have it in master branch.<br>
    <br>
    Min<br>
    <br>
    <div class="moz-cite-prefix">On 4/21/16 9:21 PM, Siegmar Gross
      wrote:<br>
    </div>
    <blockquote cite="mid:733d8b8a-816f-cdea-0bbc-9ac0416939f0@informatik.hs-fulda.de" type="cite">Hi,
      <br>
      <br>
      I have built mpich-master-v3.2-247-g1aec69b70951 on my machines
      <br>
      (Solaris 10 Sparc, Solaris 10 x86_64, and openSUSE Linux 12.1
      x86_64)
      <br>
      with gcc-5.1.0 and Sun C 5.13. I get the following errors for both
      <br>
      compilers if I run small programs that spawn processes on two
      Sparc
      <br>
      machines. Everything works fine if I use Linux and/or Solaris
      x86_64.
      <br>
      "mpiexec" is aliased to 'mpiexec -genvnone'. I get different
      errors,
      <br>
      if I run the same command several times as you can see below
      (sometimes
      <br>
      it even works as expected).
      <br>
      <br>
      <br>
      tyr spawn 119 mpichversion
      <br>
      MPICH Version:          3.2
      <br>
      MPICH Release date:     Tue Apr 19 00:00:44 CDT 2016
      <br>
      MPICH Device:           ch3:nemesis
      <br>
      MPICH configure:        --prefix=/usr/local/mpich-3.2.1_64_gcc
      --libdir=/usr/local/mpich-3.2.1_64_gcc/lib64
      --includedir=/usr/local/mpich-3.2.1_64_gcc/include64 CC=gcc
      CXX=g++ F77=gfortran FC=gfortran CFLAGS=-m64 CXXFLAGS=-m64
      FFLAGS=-m64 FCFLAGS=-m64 LDFLAGS=-m64 -L/usr/lib/sparcv9
      -Wl,-rpath -Wl,/usr/lib/sparcv9 --enable-fortran=yes --enable-cxx
      --enable-romio --enable-debuginfo --enable-smpcoll
      --enable-threads=multiple --with-thread-package=posix
      --enable-shared
      <br>
      MPICH CC:       gcc -m64   -O2
      <br>
      MPICH CXX:      g++ -m64  -O2
      <br>
      MPICH F77:      gfortran -m64  -O2
      <br>
      MPICH FC:       gfortran -m64  -O2
      <br>
      <br>
      <br>
      tyr spawn 120 mpiexec -np 1 --host tyr,tyr,tyr,ruester,ruester
      spawn_master
      <br>
      <br>
      Parent process 0 running on tyr.informatik.hs-fulda.de
      <br>
        I create 4 slave processes
      <br>
      <br>
      Fatal error in MPI_Comm_spawn: Unknown error class, error stack:
      <br>
      MPI_Comm_spawn(144)...................:
      MPI_Comm_spawn(cmd="spawn_slave", argv=0, maxprocs=4,
      MPI_INFO_NULL, root=0, MPI_COMM_WORLD, intercomm=ffffffff7fffdf58,
      errors=0) failed
      <br>
      MPIDI_Comm_spawn_multiple(274)........:
      <br>
      MPID_Comm_accept(153).................:
      <br>
      MPIDI_Comm_accept(1039)...............:
      <br>
      MPIDU_Complete_posted_with_error(1137): Process failed
      <br>
      <br>
===================================================================================
      <br>
      =   BAD TERMINATION OF ONE OF YOUR APPLICATION PROCESSES
      <br>
      =   PID 3182 RUNNING AT tyr
      <br>
      =   EXIT CODE: 10
      <br>
      =   CLEANING UP REMAINING PROCESSES
      <br>
      =   YOU CAN IGNORE THE BELOW CLEANUP MESSAGES
      <br>
===================================================================================
      <br>
      <br>
      <br>
      <br>
      tyr spawn 121 mpiexec -np 1 --host tyr,tyr,tyr,ruester,ruester
      spawn_master
      <br>
      <br>
      Parent process 0 running on tyr.informatik.hs-fulda.de
      <br>
        I create 4 slave processes
      <br>
      <br>
      Parent process 0: tasks in MPI_COMM_WORLD:                    1
      <br>
                        tasks in COMM_CHILD_PROCESSES local group:  1
      <br>
                        tasks in COMM_CHILD_PROCESSES remote group: 4
      <br>
      <br>
      Slave process 3 of 4 running on ruester.informatik.hs-fulda.de
      <br>
      Slave process 2 of 4 running on ruester.informatik.hs-fulda.de
      <br>
      spawn_slave 2: argv[0]: spawn_slave
      <br>
      spawn_slave 3: argv[0]: spawn_slave
      <br>
      Slave process 0 of 4 running on tyr.informatik.hs-fulda.de
      <br>
      spawn_slave 0: argv[0]: spawn_slave
      <br>
      Slave process 1 of 4 running on tyr.informatik.hs-fulda.de
      <br>
      spawn_slave 1: argv[0]: spawn_slave
      <br>
      <br>
      <br>
      <br>
      tyr spawn 122 mpiexec -np 1 --host tyr,tyr,tyr,ruester,ruester
      spawn_master
      <br>
      <br>
      Parent process 0 running on tyr.informatik.hs-fulda.de
      <br>
        I create 4 slave processes
      <br>
      <br>
      <br>
      <br>
      tyr spawn 123 mpiexec -np 1 --host tyr,tyr,tyr,ruester,ruester
      spawn_master
      <br>
      <br>
      Parent process 0 running on tyr.informatik.hs-fulda.de
      <br>
        I create 4 slave processes
      <br>
      <br>
      Fatal error in MPI_Comm_spawn: Unknown error class, error stack:
      <br>
      MPI_Comm_spawn(144)...................:
      MPI_Comm_spawn(cmd="spawn_slave", argv=0, maxprocs=4,
      MPI_INFO_NULL, root=0, MPI_COMM_WORLD, intercomm=ffffffff7fffdf58,
      errors=0) failed
      <br>
      MPIDI_Comm_spawn_multiple(274)........:
      <br>
      MPID_Comm_accept(153).................:
      <br>
      MPIDI_Comm_accept(1039)...............:
      <br>
      MPIDU_Complete_posted_with_error(1137): Process failed
      <br>
      tyr spawn 124 mpiexec -np 1 --host tyr,tyr,tyr,ruester,ruester
      spawn_master
      <br>
      <br>
      Parent process 0 running on tyr.informatik.hs-fulda.de
      <br>
        I create 4 slave processes
      <br>
      <br>
      Fatal error in MPI_Comm_spawn: Unknown error class, error stack:
      <br>
      MPI_Comm_spawn(144)...................:
      MPI_Comm_spawn(cmd="spawn_slave", argv=0, maxprocs=4,
      MPI_INFO_NULL, root=0, MPI_COMM_WORLD, intercomm=ffffffff7fffdf58,
      errors=0) failed
      <br>
      MPIDI_Comm_spawn_multiple(274)........:
      <br>
      MPID_Comm_accept(153).................:
      <br>
      MPIDI_Comm_accept(1039)...............:
      <br>
      MPIDU_Complete_posted_with_error(1137): Process failed
      <br>
      <br>
===================================================================================
      <br>
      =   BAD TERMINATION OF ONE OF YOUR APPLICATION PROCESSES
      <br>
      =   PID 3466 RUNNING AT tyr
      <br>
      =   EXIT CODE: 10
      <br>
      =   CLEANING UP REMAINING PROCESSES
      <br>
      =   YOU CAN IGNORE THE BELOW CLEANUP MESSAGES
      <br>
===================================================================================
      <br>
      [<a class="moz-txt-link-abbreviated" href="mailto:proxy:0:0@tyr.informatik.hs-fulda.de">proxy:0:0@tyr.informatik.hs-fulda.de</a>]
      HYD_pmcd_pmip_control_cmd_cb
      (../../../../mpich-master-v3.2-247-g1aec69b70951/src/pm/hydra/pm/pmiserv/pmip_cb.c:886):
      assert (!closed) failed
      <br>
      [<a class="moz-txt-link-abbreviated" href="mailto:proxy:0:0@tyr.informatik.hs-fulda.de">proxy:0:0@tyr.informatik.hs-fulda.de</a>[<a class="moz-txt-link-abbreviated" href="mailto:proxy:1:1@ruester.informatik.hs-fulda.de">proxy:1:1@ruester.informatik.hs-fulda.de</a>]
      HYD_pmcd_pmip_control_cmd_cb
      (../../../../mpich-master-v3.2-247-g1aec69b70951/src/pm/hydra/pm/pmiserv/pmip_cb.c]
      HYDT_dmxu_poll_wait_for_event
      (../../../../mpich-master-v3.2-247-g1aec69b70951/src/pm/hydra/tools/demux/demux_poll.c:77):
      callback returned error status
      <br>
      [<a class="moz-txt-link-abbreviated" href="mailto:proxy:0:0@tyr.informatik.hs-fulda.de">proxy:0:0@tyr.informatik.hs-fulda.de</a>] main
      (../../../../mpich-master-v3.2-247-g1aec69b70951/src/pm/hydra/pm/pmiserv/pmip.c:202):
      demux engine error waiting for event
      <br>
      [<a class="moz-txt-link-abbreviated" href="mailto:mpiexec@tyr.informatik.hs-fulda.de">mpiexec@tyr.informatik.hs-fulda.de</a>] HYDT_bscu_wait_for_completion
      (../../../../mpich-master-v3.2-247-g1aec69b70951/src/pm/hydra/tools/bootstrap/utils/bscu_wait.c:76):
      one of the processes terminated badly; aborting
      <br>
      [<a class="moz-txt-link-abbreviated" href="mailto:mpiexec@tyr.informatik.hs-fulda.de">mpiexec@tyr.informatik.hs-fulda.de</a>] HYDT_bsci_wait_for_completion
      (../../../../mpich-master-v3.2-247-g1aec69b70951/src/pm/hydra/tools/bootstrap/src/bsci_wait.c:23):
      launcher returned error waiting for completion
      <br>
      [<a class="moz-txt-link-abbreviated" href="mailto:mpiexec@tyr.informatik.hs-fulda.de">mpiexec@tyr.informatik.hs-fulda.de</a>] HYD_pmci_wait_for_completion
      (../../../../mpich-master-v3.2-247-g1aec69b70951/src/pm/hydra/pm/pmiserv/pmiserv_pmci.c:218):
      launcher returned error waiting for completion
      <br>
      [<a class="moz-txt-link-abbreviated" href="mailto:mpiexec@tyr.informatik.hs-fulda.de">mpiexec@tyr.informatik.hs-fulda.de</a>] main
      (../../../../mpich-master-v3.2-247-g1aec69b70951/src/pm/hydra/ui/mpich/mpiexec.c:340):
      process manager error waiting for completion
      <br>
      tyr spawn 125
      <br>
      <br>
      <br>
      I would be grateful if somebody can fix the problem. Thank you
      very
      <br>
      much for any help in advance.
      <br>
      <br>
      <br>
      Kind regards
      <br>
      <br>
      Siegmar
      <br>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
discuss mailing list     <a class="moz-txt-link-abbreviated" href="mailto:discuss@mpich.org">discuss@mpich.org</a>
To manage subscription options or unsubscribe:
<a class="moz-txt-link-freetext" href="https://lists.mpich.org/mailman/listinfo/discuss">https://lists.mpich.org/mailman/listinfo/discuss</a></pre>
    </blockquote>
    <br>
  </body>
</html>