Guía de usuario del SCAD del CIMA

De Wikicima
(Diferencias entre revisiones)
Saltar a: navegación, buscar
(Página creada con 'Para ejecutar el modelo: Primero es conveniente limpiar todos los archivos temporales: make clean make mpclean Luego compilar: make mpp Después editar el pbs que permite e…')
 
(Librerías y modelos disponibles)
 
(No se muestran 32 ediciones intermedias realizadas por 4 usuarios)
Línea 1: Línea 1:
Para ejecutar el modelo:
+
==Librerías y modelos disponibles==
Primero es conveniente limpiar todos los archivos temporales:
+
Por defecto no se cargan variables de entorno para los compiladores.
make clean
 
make mpclean
 
   
Luego compilar:
+
===Elegir librerías a utilizar (Intel o GNU)===
make mpp
+
* Puedes listar las '''librerias''' disponibles y seleccionar la deseada ejecutando:
  +
<pre>source /opt/load-libs.sh</pre>
   
Después editar el pbs que permite ejecutar el modelo
+
* Tambien puedes cargar las librerías deseadas desde un script agregando:
En el pbs tengo que elegir la cantidad de nodos y procesadores que quiero utilizar
+
<pre>source /opt/load-libs.sh [N] <--- Siendo [N] el numero de opción de las librerías deseadas</pre>
En este ejemplo estoy eligiendo 8 nodos de 1 procesador cada uno:
 
#PBS -l nodes=8:ppn=1
 
PROC_NO=8
 
   
Otro ejemplo es elegir 3 nodos de dos procesadores cada uno:
+
===Modelos pre compilados===
#PBS -l nodes=3:ppn=2
 
PROC_NO=6
 
   
Además hay que elegir el nombre del archivo ejecutable:
+
* Las librerías y modelos se encuentran instalados en:
EXEC_NAME="mm5.mpp"
+
/opt
   
Por último, debemos indicar que cola se usará. Actualmente hay dos colas:
+
* Dentro de cada directorio se encuentra la versión de la librería o modelo según el compilador utilizado. Por ejemplo:
corta: para corridas de no más de 3hs.
+
/opt/wrf/WRF-4.3.2/intel
larga: Para corridas de mayor duración
 
   
#PBS -q corta
+
o
  +
/opt/wrf/WRF-4.3.2/gnu
  +
  +
  +
* Para listar las '''versions de WRF''' disponibles y obtener su ubicación puedes ejecutar
  +
<pre>wrf-path</pre>
  +
  +
==Para ejecutar un trabajo:==
  +
  +
*En el archivo pbs elijo la cantidad de nodos y procesadores que quiero utilizar. Ejemplo para 8 nodos de 1 procesador cada uno:
  +
<pre>#PBS -l nodes=8:ppn=1
  +
PROC_NO=8</pre>
  +
*Otro ejemplo es elegir 3 nodos de dos procesadores cada uno:
  +
<pre>#PBS -l nodes=3:ppn=2
  +
PROC_NO=6</pre>
  +
  +
*Por último, debemos indicar que cola se usará. Actualmente hay sólo una cola (larga)
  +
#PBS -q larga
 
 
Una vez que esta todo modificado ejecutamos:
+
*Una vez que esta todo modificado ejecutamos:
qsub pbs
+
qsub corrida.pbs
  +
  +
*Para visualizar lo que ejecutamos y el estado:
  +
qstat –n
  +
  +
*Para matar el trabajo que enviamos:
  +
qdel <número de trabajo> (número de trabajo lo sabemos haciendo qstat –n)
  +
  +
*Config de un archivo PBS típico
  +
<pre>
  +
## Job Name
  +
#PBS -N nombreJob
  +
  +
## Novedades por mail
  +
#PBS -m abe
  +
#PBS -M <my.user>@cima.fcen.uba.ar
  +
  +
## Joins standard and Error outputs in a single file
  +
#PBS -j oe
  +
  +
## Queue
  +
#PBS -q larga
  +
  +
## resources
  +
#PBS -l nodes=3:ppn=1
  +
</pre>
  +
  +
== Scripts PBS ==
  +
Para facilitar las cosas y poder empezar a simular, se creó un repositorio GIT para las scripts necesarias para simular con WRF.
  +
  +
Una vez conectados a hydra, sólo tienen que hacer:
  +
<pre>
  +
$ git clone https://git.cima.fcen.uba.ar/lluis.fita/hydra.git
  +
</pre>
  +
  +
Ahí les preguntará por <code>usuarie / pwd </code> (el mismo que el del correo)
  +
  +
Se creará un directorio llamado <code>hydra</code>. En él encontrarán todas las scripts necesarias para simular
  +
  +
=== WRF ===
  +
Scripts para WRF en <code>'pbs/wrf/'</code>, contenido:
   
Para visualizar lo que ejecutamos y el estado:
+
* <code>launch_geogrid_intel.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>geogrid.exe</i> compilado con intel y crear los dominios
qstat –n
+
* <code>launch_metgrid_intel.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>metgrid.exe</i> compilado con intel
  +
* <code>launch_real_intel.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>metgrid.exe</i> compilado con intel
  +
* <code>launch_ungrib_intel.pbs</code>: para lanzar el <i>ungrib.exe</i> compilado con intel
  +
* <code>launch_wrf_gnu_dmpar.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>wrf.exe</i> compilado con gnu
  +
* <code>launch_wrf_intel_dmpar.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>metgrid.exe</i> compilado con intel
  +
* <code>launch_wrf_intel_dm+sm.pbs</code>: para lanzar en paralelo (híbridio MPICH y openMP) el <i>metgrid.exe</i> compilado con intel
   
Para matar el trabajo que enviamos:
+
Yo recomendaría que en un directorio a parte crearan un directorio en donde lanzar las simulaciones con todos los directorios necesarios de WRF y los ficheros necesarios (están todos en <code>/opt/wrf/[version_WRF]/[compilador]/[version_compilador]/[tipo_paralelizacion]/</code>). Para cada componente copiarle su script pbs necearia. Antes de lanzar, tendrán que introducir su dirección de correo para poder recibir un mensaje cuando la script haya terminado.
qdel <número de trabajo> (número de trabajo lo sabemos haciendo qstat –n)
 

Última revisión de 17:27 22 feb 2024

Contenido

[editar] Librerías y modelos disponibles

Por defecto no se cargan variables de entorno para los compiladores.

[editar] Elegir librerías a utilizar (Intel o GNU)

  • Puedes listar las librerias disponibles y seleccionar la deseada ejecutando:
source /opt/load-libs.sh
  • Tambien puedes cargar las librerías deseadas desde un script agregando:
source /opt/load-libs.sh [N]   <--- Siendo [N] el numero de opción de las librerías deseadas

[editar] Modelos pre compilados

  • Las librerías y modelos se encuentran instalados en:
/opt
  • Dentro de cada directorio se encuentra la versión de la librería o modelo según el compilador utilizado. Por ejemplo:
/opt/wrf/WRF-4.3.2/intel

o

/opt/wrf/WRF-4.3.2/gnu


  • Para listar las versions de WRF disponibles y obtener su ubicación puedes ejecutar
wrf-path

[editar] Para ejecutar un trabajo:

  • En el archivo pbs elijo la cantidad de nodos y procesadores que quiero utilizar. Ejemplo para 8 nodos de 1 procesador cada uno:
#PBS -l nodes=8:ppn=1 
PROC_NO=8
  • Otro ejemplo es elegir 3 nodos de dos procesadores cada uno:
#PBS -l nodes=3:ppn=2
PROC_NO=6
  • Por último, debemos indicar que cola se usará. Actualmente hay sólo una cola (larga)
#PBS -q larga
  • Una vez que esta todo modificado ejecutamos:
qsub corrida.pbs
  • Para visualizar lo que ejecutamos y el estado:
qstat –n
  • Para matar el trabajo que enviamos:
qdel <número de trabajo> (número de trabajo lo sabemos haciendo qstat –n)
  • Config de un archivo PBS típico
## Job Name
#PBS -N nombreJob

## Novedades por mail
#PBS -m abe
#PBS -M <my.user>@cima.fcen.uba.ar

## Joins standard and Error outputs in a single file
#PBS -j oe

## Queue
#PBS -q larga

## resources
#PBS -l nodes=3:ppn=1

[editar] Scripts PBS

Para facilitar las cosas y poder empezar a simular, se creó un repositorio GIT para las scripts necesarias para simular con WRF.

Una vez conectados a hydra, sólo tienen que hacer:

 $ git clone https://git.cima.fcen.uba.ar/lluis.fita/hydra.git

Ahí les preguntará por usuarie / pwd (el mismo que el del correo)

Se creará un directorio llamado hydra. En él encontrarán todas las scripts necesarias para simular

[editar] WRF

Scripts para WRF en 'pbs/wrf/', contenido:

  • launch_geogrid_intel.pbs: para lanzar en paralelo (sólo MPICH) el geogrid.exe compilado con intel y crear los dominios
  • launch_metgrid_intel.pbs: para lanzar en paralelo (sólo MPICH) el metgrid.exe compilado con intel
  • launch_real_intel.pbs: para lanzar en paralelo (sólo MPICH) el metgrid.exe compilado con intel
  • launch_ungrib_intel.pbs: para lanzar el ungrib.exe compilado con intel
  • launch_wrf_gnu_dmpar.pbs: para lanzar en paralelo (sólo MPICH) el wrf.exe compilado con gnu
  • launch_wrf_intel_dmpar.pbs: para lanzar en paralelo (sólo MPICH) el metgrid.exe compilado con intel
  • launch_wrf_intel_dm+sm.pbs: para lanzar en paralelo (híbridio MPICH y openMP) el metgrid.exe compilado con intel

Yo recomendaría que en un directorio a parte crearan un directorio en donde lanzar las simulaciones con todos los directorios necesarios de WRF y los ficheros necesarios (están todos en /opt/wrf/[version_WRF]/[compilador]/[version_compilador]/[tipo_paralelizacion]/). Para cada componente copiarle su script pbs necearia. Antes de lanzar, tendrán que introducir su dirección de correo para poder recibir un mensaje cuando la script haya terminado.

Herramientas personales