<br>Your comment sounds reasonable. However, our machines are pretty new and they do have 4GB RAM/core. I can handle this job with one single core, so I am not sure if you are correct about memory problem. I will check more details about memory when I get the same problem again.<br>

<br>Anyway, it works now and I understand that I did not do a stupid thing when split lapw2 to too many parts.<br>Thank you all for the input. <br><br><br><div class="gmail_quote">On Wed, Sep 30, 2009 at 12:17 PM, Laurence Marks <span dir="ltr">&lt;<a href="mailto:L-marks@northwestern.edu">L-marks@northwestern.edu</a>&gt;</span> wrote:<br>

<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">It sounds like you are memory limited (RAM). If you use<br>
lapw2_vector_split:N then the arrays used by lapw2 are split into N<br>
parts. If M is the size of the array, then the total memory<br>
requirement with the method you are using will always be M. If you<br>
have 21 atoms (total) I am surprised that you have this problem,<br>
perhaps you need more memory. (If it is 21 unique atoms then it is<br>
possible, but still surprising.) Have a look at /proc/meminfo and if<br>
you are running ganglia look at your memory records. You need<br>
something like 2Gb per core and more might be better for newer<br>
systems; with 1Gb or less per core you can easily run into this sort<br>
of problem.<br>
<br>
2009/9/30 Duy Le &lt;<a href="mailto:ttduyle@gmail.com">ttduyle@gmail.com</a>&gt;:<br>
<div><div></div><div class="h5">&gt; Thank you for your all inputs.<br>
&gt; I am running test on a system of 21 atoms, with spin polarized calculation,<br>
&gt; with 2 k-points, without inversion symmetry. Of course this test only with<br>
&gt; small system. So there would be no problem with the matrix size. The<br>
&gt; .machines file I have provided in my previous email.<br>
&gt; Good news, the problem has been solved. By using:<br>
&gt; lapw2_vector_split:$NCUS_per_MPI_JOB<br>
&gt; I am able to finish the benchmark test with 1, 2, 4, 8, 16 CPUS (on the same<br>
&gt; nodes) by fully MPI or by hydrid K-parallel&amp; MPI.<br>
&gt;<br>
&gt; I am really not sure the way I do is correct.<br>
&gt; (lapw2_vector_split:$NCUS_per_MPI_JOB)<br>
&gt; Could anyone explain this for me? I am pretty new with Wien2k.<br>
&gt; Thank you.<br>
&gt; On Wed, Sep 30, 2009 at 3:12 AM, Peter Blaha &lt;<a href="mailto:pblaha@theochem.tuwien.ac.at">pblaha@theochem.tuwien.ac.at</a>&gt;<br>
&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Very unusual, I cannot believe that 3 or 7 nodes run efficiently (lapw1)<br>
&gt;&gt; or<br>
&gt;&gt; are necessary.<br>
&gt;&gt; Maybe memory is an issue and you should try to set<br>
&gt;&gt;<br>
&gt;&gt; lapw2_vector_split:2<br>
&gt;&gt;<br>
&gt;&gt; (with a even number of processors!)<br>
&gt;&gt;<br>
&gt;&gt;&gt; I can run mpi with lapw0, lapw1, and lapw2. However, lapw2 can run<br>
&gt;&gt;&gt; without problem with certain number of PROCESSORS PER MPI JOB (in both<br>
&gt;&gt;&gt; cases: fully mpi and/or hybrid k-parallel+mpi). Those certain numbers are 3<br>
&gt;&gt;&gt; and 7. If I try to run with other numbers of PROCESSORS PER MPI JOB, it<br>
&gt;&gt;&gt; gives me an message like below. This problem doesn&#39;t occur with lapw0 and<br>
&gt;&gt;&gt; lapw1. If any of you could give me some suggestion of fixing this problem,<br>
&gt;&gt;&gt; it would be appreciated.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; [compute-0-2.local:08162] *** An error occurred in MPI_Comm_split<br>
&gt;&gt;&gt; [compute-0-2.local:08162] *** on communicator MPI_COMM_WORLD<br>
&gt;&gt;&gt; [compute-0-2.local:08162] *** MPI_ERR_ARG: invalid argument of some other<br>
&gt;&gt;&gt; kind<br>
&gt;&gt;&gt; [compute-0-2.local:08162] *** MPI_ERRORS_ARE_FATAL (goodbye)<br>
&gt;&gt;&gt; forrtl: error (78): process killed (SIGTERM)<br>
&gt;&gt;&gt; Image              PC                Routine            Line<br>
&gt;&gt;&gt;  Source          libpthread.so.0    000000383440DE80  Unknown<br>
&gt;&gt;&gt; Unknown  Unknown<br>
&gt;&gt;&gt; ........... etc....<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Reference:<br>
&gt;&gt;&gt; OPTIONS file:<br>
&gt;&gt;&gt; current:FOPT:-FR -mp1 -w -prec_div -pc80 -pad -align -DINTEL_VML<br>
&gt;&gt;&gt; -traceback<br>
&gt;&gt;&gt; current:FPOPT:$(FOPT)<br>
&gt;&gt;&gt; current:LDFLAGS:$(FOPT) -L/share/apps/fftw-3.2.1/lib/ -lfftw3<br>
&gt;&gt;&gt; -L/share/apps/inte<br>
&gt;&gt;&gt; l/mkl/10.0.011/lib/em64t -i-static -openmp<br>
&gt;&gt;&gt; current:DPARALLEL:&#39;-DParallel&#39;<br>
&gt;&gt;&gt; current:R_LIBS:-lmkl_lapack -lmkl_core -lmkl_em64t -lguide -lpthread<br>
&gt;&gt;&gt; current:RP_LIBS:-lmkl_scalapack_lp64 -lmkl_solver_lp64_sequential<br>
&gt;&gt;&gt; -Wl,--start-gr<br>
&gt;&gt;&gt; oup -lmkl_intel_lp64 -lmkl_sequential -lmkl_core -lmkl_blacs_openmpi_lp64<br>
&gt;&gt;&gt; -Wl,--<br>
&gt;&gt;&gt; end-group -lpthread -lmkl_em64t -L/share/apps/intel/fce/10.1.008/lib<br>
&gt;&gt;&gt; -limf<br>
&gt;&gt;&gt; current:MPIRUN:mpirun -np _NP_ -machinefile _HOSTS_ _EXEC_<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Openmpi 1.2.6<br>
&gt;&gt;&gt; Intel compiler 10<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; .machines<br>
&gt;&gt;&gt; lapw0:compute-0-2:4<br>
&gt;&gt;&gt; 1:compute-0-2:4<br>
&gt;&gt;&gt; granularity:1<br>
&gt;&gt;&gt; extrafine:1<br>
&gt;&gt;&gt; lapw2_vector_split:1<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --------------------------------------------------<br>
&gt;&gt;&gt; Duy Le<br>
&gt;&gt;&gt; PhD Student<br>
&gt;&gt;&gt; Department of Physics<br>
&gt;&gt;&gt; University of Central Florida.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; ------------------------------------------------------------------------<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt; Wien mailing list<br>
&gt;&gt;&gt; <a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a><br>
&gt;&gt;&gt; <a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien</a><br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt;<br>
&gt;&gt;                                      P.Blaha<br>
&gt;&gt; --------------------------------------------------------------------------<br>
&gt;&gt; Peter BLAHA, Inst.f. Materials Chemistry, TU Vienna, A-1060 Vienna<br>
&gt;&gt; Phone: +43-1-58801-15671             FAX: +43-1-58801-15698<br>
&gt;&gt; Email: <a href="mailto:blaha@theochem.tuwien.ac.at">blaha@theochem.tuwien.ac.at</a>    WWW:<br>
&gt;&gt; <a href="http://info.tuwien.ac.at/theochem/" target="_blank">http://info.tuwien.ac.at/theochem/</a><br>
&gt;&gt; --------------------------------------------------------------------------<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Wien mailing list<br>
&gt;&gt; <a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a><br>
&gt;&gt; <a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien</a><br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; --------------------------------------------------<br>
&gt; Duy Le<br>
&gt; PhD Student<br>
&gt; Department of Physics<br>
&gt; University of Central Florida.<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Wien mailing list<br>
&gt; <a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a><br>
&gt; <a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien</a><br>
&gt;<br>
&gt;<br>
<br>
<br>
<br>
--<br>
</div></div>Laurence Marks<br>
Department of Materials Science and Engineering<br>
MSE Rm 2036 Cook Hall<br>
2220 N Campus Drive<br>
Northwestern University<br>
Evanston, IL 60208, USA<br>
Tel: (847) 491-3996 Fax: (847) 491-7820<br>
email: L-marks at northwestern dot edu<br>
Web: <a href="http://www.numis.northwestern.edu" target="_blank">www.numis.northwestern.edu</a><br>
Chair, Commission on Electron Crystallography of IUCR<br>
<a href="http://www.numis.northwestern.edu/" target="_blank">www.numis.northwestern.edu/</a><br>
Electron crystallography is the branch of science that uses electron<br>
scattering and imaging to study the structure of matter.<br>
<div><div></div><div class="h5">_______________________________________________<br>
Wien mailing list<br>
<a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a><br>
<a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien</a><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>--------------------------------------------------<br>Duy Le<br>PhD Student<br>Department of Physics<br>University of Central Florida.<br>