<span style="font-style: italic;">(repost: First was rejected for size-limits.. Trimming off some of the original) </span><br><br>I feel your pain buddy, honestly. .We've been grappling with the same troubles here, but here's what we've learned:
<br><br>In running basic Client-Server model, the following seems to work:<br><br>1) On the server:&nbsp; mpirun -np &lt;number&gt; pvserver --use-offscreen-rendering --render-module=MPIRenderModule
<br>2) On the client:&nbsp;&nbsp; pvclient --server-host=&lt;servername&gt; <br><br>The
Server will be doing the Data Processing, Computation, &amp; Rendering,
and images will be sent back to the client.&nbsp; Without the
--use-offscreen-rendering option it will attempt to open X display
windows for the graphics.&nbsp; This is alot faster than offscreen
(typically done with Mesa), but has problems when the windows overlap.&nbsp;
Hopefully you can distribute it across enough nodes to offset the
performance penalty you pay for using offscreen.&nbsp; Also, without the
--render-module like it will only send back the first display (in our
tests) and kinda forget about the compositing part.&nbsp; <br><br>If you have to use reverse-connection (the Server connects to the client), then use the following:<br>1) On the client: pvclient -rc<br>2)
On the server: mpirun -np &lt;number&gt; pvserver
--use-offscreen-rendering --render-module=MPIRenderModule -rc
-ch=&lt;clientname&gt;
<br><br>the PVX file only seems to be necessary when working with a
&quot;fully distributed&quot; system (eg, separate Data Servers, Render Servers,
and Client).&nbsp; We've cracked some of the dark mysteries of the PVX file
here, and if necessary I'm happy to share what little we know.
<br><br><div><span class="gmail_quote">On 2/8/06, <b class="gmail_sendername">Stefan Friedel</b> &lt;<a href="mailto:stefan.friedel@iwr.uni-heidelberg.de">stefan.friedel@iwr.uni-heidelberg.de</a>&gt; wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
Hi all,<br>after sucessfully compiling paraview 2.4.2 (w/ mesa 6.4.2,<br>offscreen-rendering/osmesa on) I'm not sure how to start the parallel<br>application and if the client is working at all:<br><br>1) (after reading the [deprecated] 1. edition of the ParaView Guide...) I
<br>should be able to start in stand-alone mode on two dual nodes with 4 processes<br>just by starting the paraview binary:<br><br>${pathtompirun}/mpirun -np 4 -machinefile ./machines ${paraviewpath}/paraview<br><br>A paraview (client) window comes up, 4 processes are running (two per node, cpu
<br>usage~100%, fine) but regardsless of which kind of data/file/demo I load, the<br>3D view window on the right is not updated (partially snapshots of overlayed<br>windows are visible). Probably this is due to the lack of an option to use
<br>offscreen-rendering?<br><br>2) Then I tried to guess which kind of server has to run on which node for<br>client/server mode:<br><br>${pathtompirun}/mpirun -np 4 -machinefile ./machines ${paraviewpath}/pvdataserver [mach_def.pvx?]
<br>${pathtompirun}/mpirun -np 4 -machinefile ./machines ${paraviewpath}/pvrenderserver [--use-offscreen-rendering?] [mach_def.pvx?]<br>${pathtompirun}/mpirun -np 1 -machinefile ./machines ${paraviewpath}/pvclient [-crs?] [mach_def.pvx?]
<br><br>I tried this with/without a pvx/xml file (see output below): no success, but<br>now I got a second small window (titled &quot;Visualization Toolkit OpenGL&quot;, looks<br>like a forgotten/not withdrawn Tcl/TK root window?), and the 3DView-Part of the
<br>Paraview client windows stays gray (but it is updated now - unlike the last<br>start in stand-alone mode)<br><br>3) I also tried to start pvserver (instead of pvrender/pvdataserver), no success (more/other errors about socket comm tags like:
<br>ERROR: In /home/thor2/sfriedel/SOFTWARE/paraview/paraview-2.4.2/VTK/Parallel/vtkSocketCommunicator.cxx, line 671<br>vtkSocketCommunicator (0xaef65f8): Could not receive tag. 8843<br>ERROR: In /home/thor2/sfriedel/SOFTWARE/paraview/paraview-
2.4.2/Servers/Common/vtkPVClientServerModule.cxx, line 378<br>vtkPVClientServerModule (0xaef8238): Connection ID mismatch.1073833280 != 0<br>)<br><br>Now this is the output after starting the client and loading the demo (from the
<br>Help menu) in client/server mode:<br><br>* two nodes (node255/node256), connection: Myri/gm<br><br>* mpi machinefile testmach:<br>sfriedel@node255:~/TMP/paraview-test$ cat testmach<br>node255<br>node256<br><br>* xml/pvx file:
<br>sfriedel@node255:~/TMP/paraview-test$ cat machdef.pvx<br>&lt;?xml version=&quot;1.0&quot; ?&gt;<br>&lt;pvx&gt;<br>&nbsp;&nbsp;&lt;Process Type=&quot;client&quot; /&gt;<br>&nbsp;&nbsp;&lt;Process Type=&quot;data-server&quot;&gt;<br>&nbsp;&nbsp;&nbsp;&nbsp;&lt;Machine Name=&quot;node255&quot; /&gt;
<br>&nbsp;&nbsp;&nbsp;&nbsp;&lt;Machine Name=&quot;node256&quot; /&gt;<br>&nbsp;&nbsp;&lt;/Process&gt;<br>&nbsp;&nbsp;&lt;Process Type=&quot;render-server&quot;&gt;<br>&nbsp;&nbsp;&nbsp;&nbsp;&lt;Machine Name=&quot;node255&quot; /&gt;<br>&nbsp;&nbsp;&nbsp;&nbsp;&lt;Machine Name=&quot;node256&quot; /&gt;
<br>&nbsp;&nbsp;&lt;/Process&gt;<br>&lt;/pvx&gt;<br><br><br>#######################################<br>sfriedel@node256:~/TMP/paraview-test$ ~/TMP/mpichgm_gccwssh/bin/mpirun.ch_gm --gm-tree-spawn -np 4 -machinefile ./testmach /export/system/paraview/bin/pvrenderserver --use-offscreen-rendering &quot;
machdef.pvx&quot;<br>Listen on port: 22221<br>RenderServer: Waiting for client...<br><br>connected to port 22221<br>.... (snip) ....<br></blockquote></div><br><br clear="all"><br>-- <br>Randall Hand<br>Visualization Scientist, 
<br>ERDC-MSRC Vicksburg, MS<br>Homepage: <a href="http://www.yeraze.com">http://www.yeraze.com</a>