<html><head>
<meta http-equiv="Content-Type" content="text/html; charset=Windows-1252">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    Hi Siegmar,<br>
    <br>
    We cannot reproduce this error on our test machines (Solaris i386,
    Ubuntu x86_64) by using your programs. And unfortunately we do not
    have Solaris Sparc machine thus could not verify it.<br>
    <br>
    Sometime, it can happen that you need to add "./" in front of the
    program path, could you try it ?<br>
    <br>
    For example, in spawn_master.c
    
    <title>MPI: A Message-Passing Interface Standard</title>
    <blockquote type="cite">#define SLAVE_PROG      "./spawn_slave"</blockquote>
    <br>
    Min<br>
    <br>
    <div class="moz-cite-prefix">On 10/7/15 5:03 AM, Siegmar Gross
      wrote:<br>
    </div>
    <blockquote cite="mid:5614EDDA.9060409@informatik.hs-fulda.de" type="cite">Hi,
      <br>
      <br>
      today I've built mpich-3.2rc1 on my machines (Solaris 10 Sparc,
      <br>
      Solaris 10 x86_64, and openSUSE Linux 12.1 x86_64) with gcc-5.1.0
      <br>
      and Sun C 5.13. I still get the following errors on my Sparc
      machine
      <br>
      which I'd already reported September 8th. "mpiexec" is aliased to
      <br>
      'mpiexec -genvnone'. It still doesn't matter if I use my cc- or
      <br>
      gcc-version of MPICH.
      <br>
      <br>
      <br>
      tyr spawn 119 mpichversion
      <br>
      MPICH Version:          3.2rc1
      <br>
      MPICH Release date:     Wed Oct  7 00:00:33 CDT 2015
      <br>
      MPICH Device:           ch3:nemesis
      <br>
      MPICH configure:        --prefix=/usr/local/mpich-3.2_64_cc
      --libdir=/usr/local/mpich-3.2_64_cc/lib64
      --includedir=/usr/local/mpich-3.2_64_cc/include64 CC=cc CXX=CC
      F77=f77 FC=f95 CFLAGS=-m64 CXXFLAGS=-m64 FFLAGS=-m64 FCFLAGS=-m64
      LDFLAGS=-m64 -L/usr/lib/sparcv9 -R/usr/lib/sparcv9
      --enable-fortran=yes --enable-cxx --enable-romio
      --enable-debuginfo --enable-smpcoll --enable-threads=multiple
      --with-thread-package=posix --enable-shared
      <br>
      MPICH CC:       cc -m64   -O2
      <br>
      MPICH CXX:      CC -m64  -O2
      <br>
      MPICH F77:      f77 -m64
      <br>
      MPICH FC:       f95 -m64  -O2
      <br>
      tyr spawn 120
      <br>
      <br>
      <br>
      <br>
      tyr spawn 111 mpiexec -np 1 spawn_master
      <br>
      <br>
      Parent process 0 running on tyr.informatik.hs-fulda.de
      <br>
        I create 4 slave processes
      <br>
      <br>
      Fatal error in MPI_Comm_spawn: Unknown error class, error stack:
      <br>
      MPI_Comm_spawn(144)...........: MPI_Comm_spawn(cmd="spawn_slave",
      argv=0, maxprocs=4, MPI_INFO_NULL, root=0, MPI_COMM_WORLD,
      intercomm=ffffffff7fffde50, errors=0) failed
      <br>
      MPIDI_Comm_spawn_multiple(274):
      <br>
      MPID_Comm_accept(153).........:
      <br>
      MPIDI_Comm_accept(1057).......:
      <br>
      MPIR_Bcast_intra(1287)........:
      <br>
      MPIR_Bcast_binomial(310)......: Failure during collective
      <br>
      <br>
      <br>
      <br>
      <br>
      tyr spawn 112 mpiexec -np 1 spawn_multiple_master
      <br>
      <br>
      Parent process 0 running on tyr.informatik.hs-fulda.de
      <br>
        I create 3 slave processes.
      <br>
      <br>
      Fatal error in MPI_Comm_spawn_multiple: Unknown error class, error
      stack:
      <br>
      MPI_Comm_spawn_multiple(162)..: MPI_Comm_spawn_multiple(count=2,
      cmds=ffffffff7fffde08, argvs=ffffffff7fffddf8,
      maxprocs=ffffffff7fffddf0, infos=ffffffff7fffdde8, root=0,
      MPI_COMM_WORLD, intercomm=ffffffff7fffdde4, errors=0) failed
      <br>
      MPIDI_Comm_spawn_multiple(274):
      <br>
      MPID_Comm_accept(153).........:
      <br>
      MPIDI_Comm_accept(1057).......:
      <br>
      MPIR_Bcast_intra(1287)........:
      <br>
      MPIR_Bcast_binomial(310)......: Failure during collective
      <br>
      <br>
      <br>
      <br>
      <br>
      tyr spawn 113 mpiexec -np 1 spawn_intra_comm
      <br>
      Parent process 0: I create 2 slave processes
      <br>
      Fatal error in MPI_Comm_spawn: Unknown error class, error stack:
      <br>
      MPI_Comm_spawn(144)...........:
      MPI_Comm_spawn(cmd="spawn_intra_comm", argv=0, maxprocs=2,
      MPI_INFO_NULL, root=0, MPI_COMM_WORLD, intercomm=ffffffff7fffded4,
      errors=0) failed
      <br>
      MPIDI_Comm_spawn_multiple(274):
      <br>
      MPID_Comm_accept(153).........:
      <br>
      MPIDI_Comm_accept(1057).......:
      <br>
      MPIR_Bcast_intra(1287)........:
      <br>
      MPIR_Bcast_binomial(310)......: Failure during collective
      <br>
      tyr spawn 114
      <br>
      <br>
      <br>
      I would be grateful if somebody can fix the problem. Thank you
      very
      <br>
      much for any help in advance. I've attached my programs. Please
      let
      <br>
      me know if you need anything else.
      <br>
      <br>
      <br>
      Kind regards
      <br>
      <br>
      Siegmar
      <br>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
discuss mailing list     <a class="moz-txt-link-abbreviated" href="mailto:discuss@mpich.org">discuss@mpich.org</a>
To manage subscription options or unsubscribe:
<a class="moz-txt-link-freetext" href="https://lists.mpich.org/mailman/listinfo/discuss">https://lists.mpich.org/mailman/listinfo/discuss</a></pre>
    </blockquote>
    <br>
  </body>
</html>