<P>
Some more fundamental doubts and problems with ParaView3 compiled<BR>
sources with LAM/MPI support.<BR>
<BR>
When I start paraview pvserver on 1 machine<BR>
(hostname=ged/ip=10.101.11.71) and run a script through pvpython on<BR>
another machine (hostname=bean/ip=10.101.11.70) which connects itself<BR>
to the server there is no problem and the results are perfectly, the<BR>
script which I use is given below.<BR>
<BR>
import paraview<BR>
<BR>
paraview.ActiveConnection = paraview.Connect(&quot;10.101.11.71&quot;, 11111)<BR>
<BR>
reader = paraview.CreateProxy(&quot;sources&quot;, &quot;XMLUnstructuredGridReader&quot;, &quot;sources&quot;)<BR>
reader.SetFileName(&quot;fire_ug.vtu&quot;)<BR>
reader.UpdateVTKObjects()<BR>
<BR>
isosurface_filter = paraview.CreateProxy(&quot;filters&quot;, &quot;Contour&quot;, &quot;filters&quot;)<BR>
isosurface_filter.SetInput(reader)<BR>
isosurface_filter.SetContourValues(298.38, 396.84, 495.31, 593.775, 692)<BR>
isosurface_filter.UpdateVTKObjects()<BR>
<BR>
outline_filter = paraview.CreateProxy(&quot;filters&quot;, &quot;OutlineFilter&quot;, &quot;filters&quot;)<BR>
pyproxy5 = paraview.pyProxy(outline_filter)<BR>
pyproxy5.SetInput(reader)<BR>
<BR>
renWin = paraview.CreateRenderWindow()<BR>
renWin.SetRemoteRenderThreshold(0)<BR>
renWin.UpdateVTKObjects()<BR>
<BR>
display1 = paraview.CreateDisplay(isosurface_filter, renWin)<BR>
display2 = paraview.CreateDisplay(outline_filter, renWin)<BR>
<BR>
renWin.ResetCamera()<BR>
renWin.StillRender()<BR>
raw_input(&quot;Enter&quot;)&nbsp; &nbsp; &nbsp; <BR>
<BR>
The problem is when I start the pvserver in parallel on 2 machines<BR>
(hostname=ged/ip=10.101.11.71) and (hostname=ender/ip=10.101.11.72)<BR>
with ged being the master node, and when I try to run a script through<BR>
pvpython on a different computer (hostname=bean/ip=10.101.11.70) the<BR>
script crashes. The output on the server end is :<BR>
<BR>
raashid@ged:~/ParaView3-unix/bin$ lamnodes<BR>
n0&nbsp; &nbsp; &nbsp; ged.local:1:origin,this_node<BR>
n1&nbsp; &nbsp; &nbsp; ender.local:1:<BR>
raashid@ged:~/ParaView3-unix/bin$ mpirun -np 2 ./pvserver <BR>
Listen on port: 11111<BR>
Waiting for client...<BR>
Client connected.<BR>
MPI_Send: process in local group is dead (rank 0, comm 2)<BR>
Rank (0, MPI_COMM_WORLD): Call stack within LAM:<BR>
Rank (0, MPI_COMM_WORLD):&nbsp; - MPI_Send()<BR>
Rank (0, MPI_COMM_WORLD):&nbsp; - main()<BR>
-----------------------------------------------------------------------------<BR>
One of the processes started by mpirun has exited with a nonzero exit<BR>
code.&nbsp; This typically indicates that the process finished in error.<BR>
If your process did not finish in error, be sure to include a &quot;return<BR>
0&quot; or &quot;exit(0)&quot; in your C code before exiting the application.<BR>
<BR>
PID 27473 failed on node n1 (10.101.11.72) due to signal 6.<BR>
-----------------------------------------------------------------------------<BR>
Process id: 1 &gt;&gt; ERROR: In /home/raashid/ParaView3/Servers/Common/vtkProcessModule.cxx, line 971<BR>
vtkProcessModule (0x80f1d68): Invalid arguments to vtkClientServerStream::Invoke.&nbsp; There must be at least two arguments.&nbsp; The first must be an object and the second a string.<BR>
while processing<BR>
Message 0 = Invoke<BR>
&nbsp; Argument 0 = id_value {34}<BR>
&nbsp; Argument 1 = string_value {AddRenderer}<BR>
&nbsp; Argument 2 = int32_value {0}<BR>
&nbsp; Argument 3 = id_value {32}<BR>
<BR>
<BR>
Process id: 1 &gt;&gt; ERROR: In /home/raashid/ParaView3/Servers/Common/vtkProcessModule.cxx, line 973<BR>
vtkProcessModule (0x80f1d68): Aborting execution for debugging purposes.<BR>
<BR>
<BR>
The script on the client end is <BR>
<BR>
raashid@bean:~/ParaView3-unix/bin$ ./pvpython<BR>
Python 2.5.1 (r251:54863, May&nbsp; 2 2007, 16:53:27) <BR>
[GCC 4.1.2 (Ubuntu 4.1.2-0ubuntu4)] on linux2<BR>
Type &quot;help&quot;, &quot;copyright&quot;, &quot;credits&quot; or &quot;license&quot; for more information.<BR>
&gt;&gt;&gt; import paraview<BR>
&gt;&gt;&gt; paraview.ActiveConnection = paraview.Connect(&quot;10.101.11.71&quot;, 11111)<BR>
&gt;&gt;&gt; reader = paraview.CreateProxy(&quot;sources&quot;, &quot;XMLUnstructuredGridReader&quot;, &quot;sources&quot;)<BR>
&gt;&gt;&gt; reader.SetFileName(&quot;fire_ug.vtu&quot;)<BR>
&gt;&gt;&gt; reader.UpdateVTKObjects()<BR>
&gt;&gt;&gt; isosurface_filter = paraview.CreateProxy(&quot;filters&quot;, &quot;Contour&quot;, &quot;filters&quot;)<BR>
&gt;&gt;&gt; isosurface_filter.SetInput(reader)<BR>
&gt;&gt;&gt; isosurface_filter.SetContourValues(298.38, 396.84, 495.31, 593.775, 692)<BR>
&gt;&gt;&gt; isosurface_filter.UpdateVTKObjects()<BR>
&gt;&gt;&gt; renWin = paraview.CreateRenderWindow()<BR>
<BR>
<BR>
The pvserver crashed as soon as I tried to creat the window<BR>
<BR>
***************************************************************<BR>
<BR>
The other doubt I have is, if in the second case described above<BR>
(pvserver running on 2 different computers(10.101.11.71 &amp;<BR>
10.101.11.72) and pvpython running on another(10.101.11.70)) I run the<BR>
same script, how should I make the ActiveConnection. On the client<BR>
side the script should be connecting the the master node on the<BR>
pvserver (&quot;10.101.11.71&quot;) in this case, but the scripts on the server<BR>
side, I suppose they should just connect to the &quot;localhost&quot;. Am I<BR>
correct or making some mistake ?<BR>
<BR>
********************************************************************<BR>
<BR>
I finished compiling paraview with mpisupport, using the standard<BR>
compilers (gcc), and LAM/MPI. The problem is that i still continue to<BR>
get floating point exceptions when trying to start the stand-alone<BR>
version of paraview that was compiled with mpi support.<BR>
<BR>
I have checked out the sources from cvs and tried to build Paraview3<BR>
two days ago there was absolutely no error during the installation but<BR>
when I try to launch the stand-alone version of paraview that was<BR>
complied with mpi support it raises an error:<BR>
<BR>
raashid@bean:~/ParaView3-unix/bin$ ./paraview <BR>
Floating point exception (core dumped)<BR>
<BR>
The hardware configuration of the computer is Intel Core 2 Duo 2.4GHz,<BR>
2GB DDR2 RAM and NVidia 7600 graphics card. The system runs on Ubuntu<BR>
7.04.<BR>
<BR>
I have build the ParaView3 with debug symbol on and I compiled the<BR>
sources to support parallel processing through LAM. Version of LAM<BR>
installed is 7.1.2-1<BR>
<BR>
The gdb output is as follows :<BR>
<BR>
raashid@bean:~/ParaView3-unix/bin$ gdb ./paraview <BR>
GNU gdb 6.6-debian<BR>
Copyright (C) 2006 Free Software Foundation, Inc.<BR>
GDB is free software, covered by the GNU General Public License, and you are<BR>
welcome to change it and/or distribute copies of it under certain conditions.<BR>
Type &quot;show copying&quot; to see the conditions.<BR>
There is absolutely no warranty for GDB.&nbsp; Type &quot;show warranty&quot; for details.<BR>
This GDB was configured as &quot;i486-linux-gnu&quot;...<BR>
Using host libthread_db library &quot;/lib/tls/i686/cmov/libthread_db.so.1&quot;.<BR>
(gdb) run<BR>
Starting program: /home/raashid/ParaView3-unix/bin/paraview <BR>
[Thread debugging using libthread_db enabled]<BR>
[New Thread -1319647504 (LWP 27488)]<BR>
<BR>
Program received signal SIGFPE, Arithmetic exception.<BR>
[Switching to Thread -1319647504 (LWP 27488)]<BR>
0xb20461e6 in ?? () from /lib/tls/i686/cmov/libc.so.6<BR>
<BR>
The backtrace output is as follows :<BR>
<BR>
(gdb) bt<BR>
#0&nbsp; 0xb20461e6 in ?? () from /lib/tls/i686/cmov/libc.so.6<BR>
#1&nbsp; 0xb211f240 in ?? () from /lib/tls/i686/cmov/libc.so.6<BR>
#2&nbsp; 0xb211f120 in ?? () from /lib/tls/i686/cmov/libc.so.6<BR>
#3&nbsp; 0xb211f558 in ?? () from /lib/tls/i686/cmov/libc.so.6<BR>
#4&nbsp; 0xb211dff4 in ?? () from /lib/tls/i686/cmov/libc.so.6<BR>
#5&nbsp; 0xb136a2f8 in ?? ()<BR>
#6&nbsp; 0xb136a410 in ?? ()<BR>
#7&nbsp; 0xbfcaf86c in ?? ()<BR>
#8&nbsp; 0xb2048575 in ?? () from /lib/tls/i686/cmov/libc.so.6<BR>
#9&nbsp; 0x00000218 in ?? ()<BR>
#10 0xb57d8000 in ?? ()<BR>
#11 0xb211f150 in ?? () from /lib/tls/i686/cmov/libc.so.6<BR>
#12 0x000000f8 in ?? ()<BR>
#13 0x00000004 in ?? ()<BR>
#14 0x00000001 in ?? ()<BR>
#15 0x00000040 in ?? ()<BR>
#16 0xbfcaf850 in ?? ()<BR>
#17 0x000ffd08 in ?? ()<BR>
#18 0x000ffbf0 in ?? ()<BR>
#19 0xb2107880 in ?? () from /lib/tls/i686/cmov/libc.so.6<BR>
#20 0xb211f150 in ?? () from /lib/tls/i686/cmov/libc.so.6<BR>
#21 0x00000001 in ?? ()<BR>
#22 0x00100000 in ?? ()<BR>
---Type &lt;return&gt; to continue, or q &lt;return&gt; to quit---<BR>
#23 0x00000000 in ?? ()<BR>
&nbsp; <BR>

</P>
<br><br>
<Table border=0 Width=644 Height=57 cellspacing=0 cellpadding=0 style='font-family:Verdana;font-size:11px;line-height:15px;'><TR><td><a href='http://adworks.rediff.com/cgi-bin/AdWorks/click.cgi/www.rediff.com/signature-home.htm/1050715198@Middle5/1221966_1215777/1221155/1?PARTNER=3&OAS_QUERY=null target=new '><img src =http://imadworks.rediff.com/cgi-bin/AdWorks/adimage.cgi/1221966_1215777/creative_1221155.gif  alt='office 07'  border=0></a></td></TR></Table>