<DIV>Christoph,</DIV>
<DIV>&nbsp;</DIV>
<DIV>I have read your questions&nbsp;in paraview mailing list. We have compiled and installed paraview with MPI in a 8-node cluster. and we have met the same problems as you, but we solved them later.</DIV>
<DIV>&nbsp;</DIV>
<DIV>#1:<BR>==========<BR>$ mpirun -machinefile ~/machinefile.txt -np 2 ./paraview<BR>p1_27474:&nbsp; p4_error: alloc_p4_msg: Message size exceeds P4s maximum <BR>message size: 321213977<BR>rm_l_1_27475: (257.175131) net_send: could not write to fd=5, errno = 32<BR>==========</DIV>
<DIV>&nbsp;</DIV>
<DIV>The first problem is caused by the MPI message size limit. you can configrate the MPI to enlarge this size.</DIV>
<DIV>&nbsp;</DIV>
<DIV>#2:<BR>==========<BR>$ mpirun -machinefile ~/machinefile.txt -np 2 ./paraview<BR>Process id: 1 &gt;&gt; ERROR: In <BR>/home/moder/paraview-3D/paraview-2.4.2-clone2/VTK/Rendering/vtkXOpenGLRenderWindow.cxx, <BR>line 1319<BR>vtkXOpenGLRenderWindow (0xb576c78): bad X server connection.</DIV>
<DIV>p1_22329:&nbsp; p4_error: interrupt SIGSEGV: 11<BR>rm_l_1_22330: (1360.557878) net_send: could not write to fd=5, errno = 32<BR>==========</DIV>
<DIV>&nbsp;</DIV>
<DIV>The second error is caused by Linux Xserver. You should set the $DISPLAY to localhost and run the commond 'xhost+' to allow remote processes could open a window locally.</DIV>
<DIV>&nbsp;</DIV>
<DIV>Another request, Can you share your big test data with me? We want do some test about parallel performance of paraview, but can not find large enough dataset. </DIV>
<DIV>&nbsp;</DIV>
<DIV>Best,</DIV>
<DIV>Nancy</DIV>
<DIV>&nbsp;</DIV>
<DIV>&nbsp;</DIV>
<DIV>&nbsp;</DIV><SPAN ></SPAN><br><!-- footer --><br><br><br><br><br><div style="border-bottom:1px solid #999"></div><br>

        <font color="black" style="font-size:14.8px">你 知 道 2006 年 最 火 爆 的 电 子 邮 箱 吗 ? </font>
        <br>
        <a href="http://www.126.com/help/126fab.htm" target="_blank" style="font-size:13px;line-height:160%;color:blue">多 达 1.1 亿 中 国 人 选 择 网 易 2000 兆 免 费 邮 箱 , 抢 注 再 得 280 兆 超 大 网 盘
</a>