Dear Mr./Dr. Gavin,<br><div class="gmail_quote"><br>After editing the .machines file, the openmpi1.3 gives the same error as mentioned in the last mail, therefore I have installed new version 1.4.5, but it doesn&#39;t work. <br>
<div class="HOEnZb"><div class="h5"><br><br><div class="gmail_quote">
On Mon, Jul 30, 2012 at 1:51 PM, Gavin Abo <span dir="ltr">&lt;<a href="mailto:gsabo@crimson.ua.edu" target="_blank">gsabo@crimson.ua.edu</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

Previously, you were supposedly using<br>
<br>
/opt/openmpi/1.3<br>
<br>
that seemed to work fine.  So wondering why you are now using:<br>
<br>
/opt/openmpi-1.4.5<br>
<br>
One HP ProLiant DL380 G7 server box (<a href="http://h18004.www1.hp.com/products/quickspecs/13595_div/13595_div.html" target="_blank">http://h18004.www1.hp.com/<u></u>products/quickspecs/13595_div/<u></u>13595_div.html</a>) has one or two processors each with 2, 4, or 6 cores.  You previously indicated that you have the two processor model, but you have not mentioned the number of cores.  Each server has its own memory.  You mentioned having 8 server boxes. Do all 8 server boxes have the same number of processors and cores?  Without this information, no one knows what your .machines might need to be.<div>

<div><br>
<br>
On 7/30/2012 1:02 AM, Peter Blaha wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
First: If you are unexperienced in computing, why would you use mpi at all.<br>
Try the k-point parallel version first.<br>
<br>
.machines:<br>
1:arya<br>
1:arya<br>
1:arya<br>
....<br>
<br>
no lapw0 line !!<br>
<br>
Am 30.07.2012 08:58, schrieb alpa dashora:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Dear Wien2k Users, Mr. Abo and Prof. Blaha,<br>
<br>
I have edited my .machines file with the correct cpu name. My new .machines file is as follows:<br>
granularity:1<br>
1:arya:2<br>
1:arya:2<br>
1:arya:2<br>
1:arya:2<br>
1:arya:2<br>
1:arya:2<br>
1:arya:2<br>
1:arya:2<br>
extrafine:1<br>
lapw0: arya:2 arya:2<br>
<br>
After run_lapw -p: it gives the following error message:<br>
exe: MPI_Init: MPI_Root is not set<br>
exe: MPI_Init: Cannot set mpirun startup protocol<br>
<br>
Than, I have set the MPI_ROOT as:<br>
export MPI_ROOT=/opt/openmpi-1.4.5<br>
<br>
After export MPI_ROOT the following error was received:<br>
<br>
exe: MPI_INIT: Can&#39;t read plugin directory /opt/openmpi-1.4.5/lib/linux_<u></u>amd64/plugins<br>
exe: MPI_Init: No plugins will be available<br>
<br>
I didnt have any idea about openmpi, please tell me how to solve this error. Please also comment on the .machines file.<br>
<br>
With kind regards,<br>
<br>
<br>
<br>
</blockquote></blockquote></div></div></blockquote></div></div></div></div><br>