Dear Wien2k Users, Mr. Abo and Prof. Blaha, <br><br>I have edited my .machines file with the correct cpu name. My new .machines file is as follows:<br>granularity:1<br>1:arya:2<br>1:arya:2<br>1:arya:2<br>1:arya:2<br>1:arya:2<br>
1:arya:2<br>1:arya:2<br>1:arya:2<br>extrafine:1<br>lapw0: arya:2 arya:2<br><br>After run_lapw -p: it gives the following error message:<br>exe: MPI_Init: MPI_Root is not set<br>exe: MPI_Init: Cannot set mpirun startup protocol<br>
<br>Than, I have set the MPI_ROOT as:<br>export MPI_ROOT=/opt/openmpi-1.4.5<br><br>After export MPI_ROOT the following error was received:<br><br>exe: MPI_INIT: Can&#39;t read plugin directory /opt/openmpi-1.4.5/lib/linux_amd64/plugins<br>
exe: MPI_Init: No plugins will be available<br><br>I didnt have any idea about openmpi, please tell me how to solve this error. Please also comment on the .machines file.<br><br>With kind regards,<br><br><br><br><div class="gmail_quote">
On Fri, Jul 27, 2012 at 11:02 AM, Peter Blaha <span dir="ltr">&lt;<a href="mailto:pblaha@theochem.tuwien.ac.at" target="_blank">pblaha@theochem.tuwien.ac.at</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
How should I know the correct name of your computer ???<br>
<br>
When you login to the machine, what are you using ??? Most likely, this will be the correct name.<br>
<br>
If it is a shared memory machine you should use the same name for all<br>
processes.<br>
<br>
Am 26.07.2012 19:45, schrieb alpa dashora:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">
Dear Prof. Blaha, Prof. Marks and All Wien2k users,<br>
<br>
Thank you very much for reply. I have given the more detail of my system as you required:<br>
<br>
1. What kind of system do you have ??<br>
<br>
     We have HP ProLiant DL380 G7 (8 servers) with 2 processors each. So we have 16 processors and the total memory is shared by all the processors.<br>
<br>
2. sh ???   What did you specify in siteconfig when configuring the parallel environment ??? shared memory or non-shared memory  ??<br>
     During the site configuration, I have used shared memory architecture.<br>
<br></div>
3. *are your nodes really called &quot;cpu1&quot;, ...*<br>
*<div class="im"><br>
*<br>
    I have used the &#39;top&#39; command on terminal, it gives the performance of all the processors. It gives the name of each processor as cpu1, cpu2,      cpu3,........ so I<br>
have taken it as such.<br>
<br>
Please suggest me the correct .machines file or any other solution to solve this problem.<br>
<br>
With kind regards,<br>
<br></div><div class="im">
On Thu, Jul 26, 2012 at 2:25 PM, Peter Blaha &lt;<a href="mailto:pblaha@theochem.tuwien.ac.at" target="_blank">pblaha@theochem.tuwien.ac.at</a> &lt;mailto:<a href="mailto:pblaha@theochem.tuwien.ac.at" target="_blank">pblaha@theochem.<u></u>tuwien.ac.at</a>&gt;&gt; wrote:<br>

<br>
    You seem to have several errors in your basic installation:<br>
<br>
<br>
     &gt; setenv USE_REMOTE 0<br>
     &gt; setenv MPI_REMOTE 0<br>
<br>
     &gt; [arya:01254] filem:rsh: copy(): Error: File type unknown<br>
<br>
    rsh ???   What did you specify in siteconfig when configuring the parallel environment ???<br>
<br>
    shared memory or non-shared memory  ??<br>
    ssh  or  rsh  ??    (most likely rsh will not work on most systems)<br>
<br>
    What kind of system do you have ??<br>
<br>
    a) Is it ONE computer with many cores (typically some SGI or IBM-power machines, or a SINGLE Computer<br>
                                     with 2-4 Xeon-quadcore processors), or<br>
    b) a &quot;cluster&quot; (connected via Infiniband) of several (Xeon multicore) nodes<br>
<br>
    Only a) is a &quot;shared memory machine&quot; and you can set USE_REMOTE to 0<br>
<br>
    Another problem might be your   .machines file:<br>
    are your nodes really called &quot;cpu1&quot;, ...<br>
<br>
    This implies more or less that you have a cluster of single-core machines ???<br>
<br>
    My guess is that you have a 16 core shared memory machine ???<br>
    In this case, the  .machines file must always contain the same &quot;correct&quot; machine name<br>
    (or maybe &quot;localhost&quot;), but not cpu1,2....<br>
<br>
<br></div>
    Am 26.07.2012 10 &lt;tel:26.07.2012%2010&gt;:17, schrieb alpa dashora:<div class="im"><br>
<br>
        Dear Wien2k Users and Prof. Marks,<br>
<br>
        Thankyou very much for your reply. I am giving more information.<br>
        Wien2k Version: Wien2k_11.1 on a 8 processor server each has two nodes.<br>
        mkl library: 10.0.1.014<br>
        openmpi: 1.3<br>
        fftw: 2.1.5<br>
<br>
        My OPTION file is as follows:<br>
<br>
        current:FOPT:-FR -O3 -mp1 -w -prec_div -pc80 -pad -ip -DINTEL_VML -traceback -l/opt/openmpi/include<br>
        current:FPOPT:-FR -mp1 -w -prec_div -pc80 -pad -ip -traceback<br></div>
        current:LDFLAGS:-L/root/__<u></u>WIEN2k_11/SRC_lib -L/opt/intel/cmkl/<a href="http://10.0.1.014/__lib/em64t" target="_blank">10.0.1.014/_<u></u>_lib/em64t</a> &lt;<a href="http://10.0.1.014/lib/em64t" target="_blank">http://10.0.1.014/lib/em64t</a>&gt; &lt;<a href="http://10.0.1.014/lib/em64t" target="_blank">http://10.0.1.014/lib/em64t</a>&gt; -lmkl_em64t<div class="im">
<br>
        -lmkl_blacs_openmpi_lp64 -lmkl_solver -lguide -lpthread<br>
        -i-static<br>
        current:DPARALLEL:&#39;-DParallel&#39;<br></div>
        current:R_LIBS:-L/opt/intel/__<u></u>cmkl/<a href="http://10.0.1.014/lib/em64t" target="_blank">10.0.1.014/lib/em64t</a> &lt;<a href="http://10.0.1.014/lib/em64t" target="_blank">http://10.0.1.014/lib/em64t</a>&gt; &lt;<a href="http://10.0.1.014/lib/em64t" target="_blank">http://10.0.1.014/lib/em64t</a>&gt; -lmkl_scalapack_lp64<div class="im">
<br>
        -lmkl_solver_lp64_sequential -Wl,--start-group -lmkl_intel_lp64<br>
<br>
        -lmkl_sequential -lmkl_core -lmkl_blacs_openmpi_lp64 -Wl,--end-group -lpthread -lm -L/opt/openmpi/1.3/lib/ -lmpi_f90 -lmpi_f77 -lmpi -lopen-rte -lopen-pal -ldl<br>
        -Wl,--export-dynamic -lnsl -lutil -limf -L/opt/fftw-2.1.5/lib/lib/ -lfftw_mpi -lrfftw_mpi -lfftw -lrfftw<br></div>
        current:RP_LIBS:-L/opt/intel/_<u></u>_cmkl/<a href="http://10.0.1.014/lib/em64t" target="_blank">10.0.1.014/lib/em64t</a> &lt;<a href="http://10.0.1.014/lib/em64t" target="_blank">http://10.0.1.014/lib/em64t</a>&gt; &lt;<a href="http://10.0.1.014/lib/em64t" target="_blank">http://10.0.1.014/lib/em64t</a>&gt; -lmkl_scalapack_lp64<div class="im">
<br>
        -lmkl_solver_lp64_sequential -Wl,--start-group -lmkl_intel_lp64<br>
<br>
        -lmkl_sequential -lmkl_core -lmkl_blacs_openmpi_lp64 -Wl,--end-group -lpthread -lm -L/opt/openmpi/1.3/lib/ -lmpi_f90 -lmpi_f77 -lmpi -lopen-rte -lopen-pal -ldl<br>
        -Wl,--export-dynamic -lnsl -lutil -limf -L/opt/fftw-2.1.5/lib/lib/ -lfftw_mpi -lrfftw_mpi -lfftw -lrfftw<br></div>
        current:MPIRUN:/opt/openmpi/1.<u></u>__3/bin/mpirun -v -n _NP_ _EXEC_<div class="im"><br>
<br>
        My parallel_option file is as follows:<br>
<br>
        setenv USE_REMOTE 0<br>
        setenv MPI_REMOTE 0<br>
        setenv WIEN_GRANULARITY 1<br>
        setenv WIEN_MPIRUN &quot;/opt/openmpi/1.3/bin/mpirun -v -n _NP_ -machinefile _HOSTS_ _EXEC_&quot;<br>
<br>
        On the compilation no error message was received and all the executable files are generated. I have edited parallel_option file, so now the error message is changed<br>
        and it is as<br>
        follows:<br>
<br>
        [arya:01254] filem:rsh: copy(): Error: File type unknown<br>
        ssh: cpu1: Name or service not known<br>
<br></div>
        ------------------------------<u></u>__----------------------------<u></u>--__--------------<div class="im"><br>
        A daemon (pid 9385) died unexpectedly with status 255 while attempting<br>
        to launch so we are aborting.<br>
<br>
        There may be more information reported by the environment (see above).<br>
<br>
        This may be because the daemon was unable to find all the needed shared<br>
        libraries on the remote node. You may set your LD_LIBRARY_PATH to have the<br>
        location of the shared libraries on the remote nodes and this will<br>
        automatically be forwarded to the remote nodes.<br></div>
        ------------------------------<u></u>__----------------------------<u></u>--__--------------<br>
        ------------------------------<u></u>__----------------------------<u></u>--__--------------<div class="im"><br>
        mpirun noticed that the job aborted, but has no info as to the process<br>
        that caused that situation.<br></div>
        ------------------------------<u></u>__----------------------------<u></u>--__--------------<div><div class="h5"><br>
        ssh: cpu2: Name or service not known<br>
<br>
        ssh: cpu3: Name or service not known<br>
<br>
        ssh: cpu4: Name or service not known<br>
<br>
        mpirun: clean termination accomplished<br>
<br>
        LAPW1 - Error<br>
        LAPW1 - Error<br>
        LAPW1 - Error<br>
        LAPW1 - Error<br>
        LAPW1 - Error<br>
        LAPW1 - Error<br>
        LAPW1 - Error<br>
<br>
        I have used the following .machines file for 16 k-points:<br>
<br>
        granularity:1<br>
        1:cpu1<br>
        1:cpu2<br>
        1:cpu3<br>
        1:cpu4<br>
        1:cpu5<br>
        1:cpu6<br>
        1:cpu7<br>
        1:cpu8<br>
        1:cpu9<br>
        1:cpu10<br>
        1:cpu11<br>
        1:cpu12<br>
        1:cpu13<br>
        1:cpu14<br>
        1:cpu15<br>
        1:cpu16<br>
        extrafine:1<br>
        lapw0: cpu1:1 cpu2:1 cpu3:1 cpu4:1<br>
<br>
        Please any one suggest me the solution of this problem.<br>
<br>
        With kind regards,<br>
<br>
<br></div></div>
        On Mon, Jul 23, 2012 at 4:50 PM, Laurence Marks &lt;<a href="mailto:L-marks@northwestern.edu" target="_blank">L-marks@northwestern.edu</a> &lt;mailto:<a href="mailto:L-marks@northwestern.edu" target="_blank">L-marks@northwestern.<u></u>edu</a>&gt; &lt;mailto:<a href="mailto:L-marks@northwestern." target="_blank">L-marks@northwestern.</a>_<u></u>_edu<div class="im">
<br>
        &lt;mailto:<a href="mailto:L-marks@northwestern.edu" target="_blank">L-marks@northwestern.<u></u>edu</a>&gt;&gt;&gt; wrote:<br>
<br>
             You probably have an incorrect MPIRUN environmental parameter. You have not provided enough information, and need to do a bit more analysis yourself.<br>
<br>
             ---------------------------<br>
             Professor Laurence Marks<br>
             Department of Materials Science and Engineering<br>
             Northwestern University<br></div>
        <a href="http://www.numis.northwestern.edu" target="_blank">www.numis.northwestern.edu</a> &lt;<a href="http://www.numis.northwestern.edu" target="_blank">http://www.numis.<u></u>northwestern.edu</a>&gt; &lt;<a href="http://www.numis." target="_blank">http://www.numis.</a>__<a href="http://northwestern.edu" target="_blank">northweste<u></u>rn.edu</a> &lt;<a href="http://www.numis.northwestern.edu" target="_blank">http://www.numis.<u></u>northwestern.edu</a>&gt;&gt; 1-847-491-3996<br>

        &lt;tel:1-847-491-3996&gt;<div class="im"><br>
<br>
             &quot;Research is to see what everybody else has seen, and to think what nobody else has thought&quot;<br>
             Albert Szent-Gyorgi<br>
<br></div><div class="im">
             On Jul 23, 2012 6:17 AM, &quot;alpa dashora&quot; &lt;<a href="mailto:dashoralpa@gmail.com" target="_blank">dashoralpa@gmail.com</a> &lt;mailto:<a href="mailto:dashoralpa@gmail.com" target="_blank">dashoralpa@gmail.com</a>&gt; &lt;mailto:<a href="mailto:dashoralpa@gmail.com" target="_blank">dashoralpa@gmail.com</a> &lt;mailto:<a href="mailto:dashoralpa@gmail.com" target="_blank">dashoralpa@gmail.com</a>&gt;&gt;<u></u>&gt; wrote:<br>

<br>
                 Dear Wien2k Users,<br>
<br>
                 I recently installed Wien2k with openmpi on 16 processor server. Installation was completed without any compilation error. While running the run_lapw -p<br>
        command, I<br>
                 received the following error:<br></div>
                 ------------------------------<u></u>__----------------------------<u></u>--__--------------------------<u></u>----__------------------------<u></u>------__------<div class="im"><br>
<br>
                 mpirun was unable to launch the specified application as it could not find an executable:<br>
<br>
                 Executable:-4<br>
                 Node: arya<br>
<br>
                 while attempting to start process rank 0.<br></div>
                 ------------------------------<u></u>__----------------------------<u></u>--__--------------------------<u></u>----__------------------------<u></u>------__-------<div class="im"><br>
<br>
                 Kindly suggest me the solution.<br>
                 mpirun is available in /opt/openmpi/1.3/bin<br>
<br>
                 Thank you in advance.<br>
<br>
                 Regards,<br>
<br>
                 --<br>
                 Dr. Alpa Dashora<br>
<br>
<br></div>
             ______________________________<u></u>___________________<br>
             Wien mailing list<br>
        Wien@zeus.theochem.tuwien.ac._<u></u>_at &lt;mailto:<a href="mailto:Wien@zeus.theochem.tuwien.ac.at" target="_blank">Wien@zeus.theochem.<u></u>tuwien.ac.at</a>&gt; &lt;mailto:<a href="mailto:Wien@zeus.theochem." target="_blank">Wien@zeus.theochem.</a>__<a href="http://tuwien.ac.at" target="_blank">t<u></u>uwien.ac.at</a> &lt;mailto:<a href="mailto:Wien@zeus.theochem.tuwien.ac.at" target="_blank">Wien@zeus.theochem.<u></u>tuwien.ac.at</a>&gt;&gt;<br>

<br>
        <a href="http://zeus.theochem.tuwien." target="_blank">http://zeus.theochem.tuwien.</a>__<a href="http://ac.at/mailman/listinfo/wien" target="_blank"><u></u>ac.at/mailman/listinfo/wien</a> &lt;<a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.<u></u>ac.at/mailman/listinfo/wien</a>&gt;<br>

<br>
<br>
<br>
<br>
        --<br>
        Alpa Dashora<br>
<br>
<br>
        ______________________________<u></u>___________________<br>
        Wien mailing list<br>
        Wien@zeus.theochem.tuwien.ac._<u></u>_at &lt;mailto:<a href="mailto:Wien@zeus.theochem.tuwien.ac.at" target="_blank">Wien@zeus.theochem.<u></u>tuwien.ac.at</a>&gt;<br>
        <a href="http://zeus.theochem.tuwien." target="_blank">http://zeus.theochem.tuwien.</a>__<a href="http://ac.at/mailman/listinfo/wien" target="_blank"><u></u>ac.at/mailman/listinfo/wien</a> &lt;<a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.<u></u>ac.at/mailman/listinfo/wien</a>&gt;<br>

<br>
<br>
    --<br>
<br>
                                           P.Blaha<br>
    ------------------------------<u></u>__----------------------------<u></u>--__--------------<div class="im"><br>
    Peter BLAHA, Inst.f. Materials Chemistry, TU Vienna, A-1060 Vienna<br></div>
    Phone: +43-1-58801-165300 &lt;tel:%2B43-1-58801-165300&gt;             FAX: +43-1-58801-165982 &lt;tel:%2B43-1-58801-165982&gt;<br>
    Email: <a href="mailto:blaha@theochem.tuwien.ac.at" target="_blank">blaha@theochem.tuwien.ac.at</a> &lt;mailto:<a href="mailto:blaha@theochem.tuwien.ac.at" target="_blank">blaha@theochem.tuwien.<u></u>ac.at</a>&gt;    WWW: <a href="http://info.tuwien.ac.at/__theochem/" target="_blank">http://info.tuwien.ac.at/__<u></u>theochem/</a> &lt;<a href="http://info.tuwien.ac.at/theochem/" target="_blank">http://info.tuwien.ac.at/<u></u>theochem/</a>&gt;<br>

    ------------------------------<u></u>__----------------------------<u></u>--__--------------<br>
<br>
    ______________________________<u></u>___________________<br>
    Wien mailing list<br>
    Wien@zeus.theochem.tuwien.ac._<u></u>_at &lt;mailto:<a href="mailto:Wien@zeus.theochem.tuwien.ac.at" target="_blank">Wien@zeus.theochem.<u></u>tuwien.ac.at</a>&gt;<br>
    <a href="http://zeus.theochem.tuwien." target="_blank">http://zeus.theochem.tuwien.</a>__<a href="http://ac.at/mailman/listinfo/wien" target="_blank"><u></u>ac.at/mailman/listinfo/wien</a> &lt;<a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.<u></u>ac.at/mailman/listinfo/wien</a>&gt;<div class="im">
<br>
<br>
<br>
<br>
<br>
--<br>
Alpa Dashora<br>
<br>
<br>
______________________________<u></u>_________________<br>
Wien mailing list<br>
<a href="mailto:Wien@zeus.theochem.tuwien.ac.at" target="_blank">Wien@zeus.theochem.tuwien.ac.<u></u>at</a><br>
<a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.<u></u>ac.at/mailman/listinfo/wien</a><br>
<br>
</div></blockquote><span class="HOEnZb"><font color="#888888">
<br>
-- <br>
------------------------------<u></u>-----------<br>
Peter Blaha<br>
Inst. Materials Chemistry, TU Vienna<br>
Getreidemarkt 9, A-1060 Vienna, Austria<br>
Tel: +43-1-5880115671<br>
Fax: +43-1-5880115698<br>
email: <a href="mailto:pblaha@theochem.tuwien.ac.at" target="_blank">pblaha@theochem.tuwien.ac.at</a><br>
------------------------------<u></u>-----------</font></span><div class="HOEnZb"><div class="h5"><br>
<br>
<br>
______________________________<u></u>_________________<br>
Wien mailing list<br>
<a href="mailto:Wien@zeus.theochem.tuwien.ac.at" target="_blank">Wien@zeus.theochem.tuwien.ac.<u></u>at</a><br>
<a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.<u></u>ac.at/mailman/listinfo/wien</a><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>Alpa Dashora<br>