• ta-hpcs01
    1 nodeに4コアあり、全部で8 nodes.
    ノード hpcs03, hpcs04を使用して8コアの計算を走らせる場合、以下のようにする。
    $ bsub -o out.log -n 8 -m 'hpcs03 hpcs04' "pam -g 1 $LSF_BINDIR/openmpi_wrapper ./a.out > tmp.log"
    
    ここで、pam -g 1 $LSF_BINDIR/openmpi_wrapper の代わりに mpijob mpirun -np 8 としても動いてしまうが、 子プロセスが指定したノードで走らず hpcs01,hpcs02,...の順番で走ってしまうので,
    pam -g 1 $LSF_BINDIR/openmpi_wrapper を必ず使用すること.
    (10/10/2012)LSFがフリーのLavaに変更になった.pamが無いので
    $ bsub -o out.log -n 8 -m 'hpcs03 hpcs04' "$LSF_BINDIR/openmpi_wrapper ./a.out > tmp.log"
    
    とする.
  • Randy (Cray cx1)
    1 node に12コアあり全部で3 nodes. Intel compiler + mpich2 でjob管理は Sun Grid Engine (SGE).
    まず以下のようなスクリプト job1 を作成する.
    source /share/apps/intel/bin/ifortvars.csh intel64
    source /share/apps/intel/bin/iccvars.csh intel64
    setenv PATH /share/apps/intel/bin:/share/apps/intel/mpich2/bin
    setenv LD_LIBRARY_PATH /share/apps/intel/lib:/share/apps/intel/mpich2/lib
    source /opt/gridengine/default/common/settings.csh
    #/share/apps/intel/mpich2/bin/mpirun -np $NSLOTS -machinefile $TMPDIR/machines -f ./hosts16 ./testrun > tmp.log 
    mpirun -np $NSLOTS -machinefile $TMPDIR/machines ./a.out > tmp.log
    #mpirun -f ./hosts16_1 ./testrun > tmp.log
    
    そして,ターミナルから
     qsub -cwd -pe mpich 16 ./job1
    
    とすると16並列jobが走る.