Guía de usuario del SCAD del CIMA

De Wikicima
(Diferencias entre revisiones)
Saltar a: navegación, buscar
(Librerías y modelos disponibles)
 
(No se muestran 30 ediciones intermedias realizadas por 4 usuarios)
Línea 1: Línea 1:
Para ejecutar el modelo:
+
==Librerías y modelos disponibles==
*Primero es conveniente limpiar todos los archivos temporales:
+
Por defecto no se cargan variables de entorno para los compiladores.
make clean
 
make mpclean
 
   
*Luego compilar:
+
===Elegir librerías a utilizar (Intel o GNU)===
make mpp
+
* Puedes listar las '''librerias''' disponibles y seleccionar la deseada ejecutando:
  +
<pre>source /opt/load-libs.sh</pre>
   
*Después editar el pbs que permite ejecutar el modelo
+
* Tambien puedes cargar las librerías deseadas desde un script agregando:
**En el pbs tengo que elegir la cantidad de nodos y procesadores que quiero utilizar
+
<pre>source /opt/load-libs.sh [N] <--- Siendo [N] el numero de opción de las librerías deseadas</pre>
***En este ejemplo estoy eligiendo 8 nodos de 1 procesador cada uno:
+
  +
===Modelos pre compilados===
  +
  +
* Las librerías y modelos se encuentran instalados en:
  +
/opt
  +
  +
* Dentro de cada directorio se encuentra la versión de la librería o modelo según el compilador utilizado. Por ejemplo:
  +
/opt/wrf/WRF-4.3.2/intel
  +
  +
o
  +
/opt/wrf/WRF-4.3.2/gnu
  +
  +
  +
* Para listar las '''versions de WRF''' disponibles y obtener su ubicación puedes ejecutar
  +
<pre>wrf-path</pre>
  +
  +
==Para ejecutar un trabajo:==
  +
  +
*En el archivo pbs elijo la cantidad de nodos y procesadores que quiero utilizar. Ejemplo para 8 nodos de 1 procesador cada uno:
 
<pre>#PBS -l nodes=8:ppn=1
 
<pre>#PBS -l nodes=8:ppn=1
 
PROC_NO=8</pre>
 
PROC_NO=8</pre>
::*Otro ejemplo es elegir 3 nodos de dos procesadores cada uno:
+
*Otro ejemplo es elegir 3 nodos de dos procesadores cada uno:
 
<pre>#PBS -l nodes=3:ppn=2
 
<pre>#PBS -l nodes=3:ppn=2
 
PROC_NO=6</pre>
 
PROC_NO=6</pre>
**Además hay que elegir el nombre del archivo ejecutable:
 
EXEC_NAME="mm5.mpp"
 
   
*Por último, debemos indicar que cola se usará. Actualmente hay dos colas:
+
*Por último, debemos indicar que cola se usará. Actualmente hay sólo una cola (larga)
**corta: para corridas de no más de 3hs.
+
#PBS -q larga
**larga: Para corridas de mayor duración
 
#PBS -q corta
 
 
 
 
*Una vez que esta todo modificado ejecutamos:
 
*Una vez que esta todo modificado ejecutamos:
qsub pbs
+
qsub corrida.pbs
   
 
*Para visualizar lo que ejecutamos y el estado:
 
*Para visualizar lo que ejecutamos y el estado:
Línea 27: Línea 25:
 
*Para matar el trabajo que enviamos:
 
*Para matar el trabajo que enviamos:
 
qdel <número de trabajo> (número de trabajo lo sabemos haciendo qstat –n)
 
qdel <número de trabajo> (número de trabajo lo sabemos haciendo qstat –n)
  +
  +
*Config de un archivo PBS típico
  +
<pre>
  +
## Job Name
  +
#PBS -N nombreJob
  +
  +
## Novedades por mail
  +
#PBS -m abe
  +
#PBS -M <my.user>@cima.fcen.uba.ar
  +
  +
## Joins standard and Error outputs in a single file
  +
#PBS -j oe
  +
  +
## Queue
  +
#PBS -q larga
  +
  +
## resources
  +
#PBS -l nodes=3:ppn=1
  +
</pre>
  +
  +
== Scripts PBS ==
  +
Para facilitar las cosas y poder empezar a simular, se creó un repositorio GIT para las scripts necesarias para simular con WRF.
  +
  +
Una vez conectados a hydra, sólo tienen que hacer:
  +
<pre>
  +
$ git clone https://git.cima.fcen.uba.ar/lluis.fita/hydra.git
  +
</pre>
  +
  +
Ahí les preguntará por <code>usuarie / pwd </code> (el mismo que el del correo)
  +
  +
Se creará un directorio llamado <code>hydra</code>. En él encontrarán todas las scripts necesarias para simular
  +
  +
=== WRF ===
  +
Scripts para WRF en <code>'pbs/wrf/'</code>, contenido:
  +
  +
* <code>launch_geogrid_intel.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>geogrid.exe</i> compilado con intel y crear los dominios
  +
* <code>launch_metgrid_intel.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>metgrid.exe</i> compilado con intel
  +
* <code>launch_real_intel.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>metgrid.exe</i> compilado con intel
  +
* <code>launch_ungrib_intel.pbs</code>: para lanzar el <i>ungrib.exe</i> compilado con intel
  +
* <code>launch_wrf_gnu_dmpar.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>wrf.exe</i> compilado con gnu
  +
* <code>launch_wrf_intel_dmpar.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>metgrid.exe</i> compilado con intel
  +
* <code>launch_wrf_intel_dm+sm.pbs</code>: para lanzar en paralelo (híbridio MPICH y openMP) el <i>metgrid.exe</i> compilado con intel
  +
  +
Yo recomendaría que en un directorio a parte crearan un directorio en donde lanzar las simulaciones con todos los directorios necesarios de WRF y los ficheros necesarios (están todos en <code>/opt/wrf/[version_WRF]/[compilador]/[version_compilador]/[tipo_paralelizacion]/</code>). Para cada componente copiarle su script pbs necearia. Antes de lanzar, tendrán que introducir su dirección de correo para poder recibir un mensaje cuando la script haya terminado.

Última revisión de 17:27 22 feb 2024

Contenido

[editar] Librerías y modelos disponibles

Por defecto no se cargan variables de entorno para los compiladores.

[editar] Elegir librerías a utilizar (Intel o GNU)

  • Puedes listar las librerias disponibles y seleccionar la deseada ejecutando:
source /opt/load-libs.sh
  • Tambien puedes cargar las librerías deseadas desde un script agregando:
source /opt/load-libs.sh [N]   <--- Siendo [N] el numero de opción de las librerías deseadas

[editar] Modelos pre compilados

  • Las librerías y modelos se encuentran instalados en:
/opt
  • Dentro de cada directorio se encuentra la versión de la librería o modelo según el compilador utilizado. Por ejemplo:
/opt/wrf/WRF-4.3.2/intel

o

/opt/wrf/WRF-4.3.2/gnu


  • Para listar las versions de WRF disponibles y obtener su ubicación puedes ejecutar
wrf-path

[editar] Para ejecutar un trabajo:

  • En el archivo pbs elijo la cantidad de nodos y procesadores que quiero utilizar. Ejemplo para 8 nodos de 1 procesador cada uno:
#PBS -l nodes=8:ppn=1 
PROC_NO=8
  • Otro ejemplo es elegir 3 nodos de dos procesadores cada uno:
#PBS -l nodes=3:ppn=2
PROC_NO=6
  • Por último, debemos indicar que cola se usará. Actualmente hay sólo una cola (larga)
#PBS -q larga
  • Una vez que esta todo modificado ejecutamos:
qsub corrida.pbs
  • Para visualizar lo que ejecutamos y el estado:
qstat –n
  • Para matar el trabajo que enviamos:
qdel <número de trabajo> (número de trabajo lo sabemos haciendo qstat –n)
  • Config de un archivo PBS típico
## Job Name
#PBS -N nombreJob

## Novedades por mail
#PBS -m abe
#PBS -M <my.user>@cima.fcen.uba.ar

## Joins standard and Error outputs in a single file
#PBS -j oe

## Queue
#PBS -q larga

## resources
#PBS -l nodes=3:ppn=1

[editar] Scripts PBS

Para facilitar las cosas y poder empezar a simular, se creó un repositorio GIT para las scripts necesarias para simular con WRF.

Una vez conectados a hydra, sólo tienen que hacer:

 $ git clone https://git.cima.fcen.uba.ar/lluis.fita/hydra.git

Ahí les preguntará por usuarie / pwd (el mismo que el del correo)

Se creará un directorio llamado hydra. En él encontrarán todas las scripts necesarias para simular

[editar] WRF

Scripts para WRF en 'pbs/wrf/', contenido:

  • launch_geogrid_intel.pbs: para lanzar en paralelo (sólo MPICH) el geogrid.exe compilado con intel y crear los dominios
  • launch_metgrid_intel.pbs: para lanzar en paralelo (sólo MPICH) el metgrid.exe compilado con intel
  • launch_real_intel.pbs: para lanzar en paralelo (sólo MPICH) el metgrid.exe compilado con intel
  • launch_ungrib_intel.pbs: para lanzar el ungrib.exe compilado con intel
  • launch_wrf_gnu_dmpar.pbs: para lanzar en paralelo (sólo MPICH) el wrf.exe compilado con gnu
  • launch_wrf_intel_dmpar.pbs: para lanzar en paralelo (sólo MPICH) el metgrid.exe compilado con intel
  • launch_wrf_intel_dm+sm.pbs: para lanzar en paralelo (híbridio MPICH y openMP) el metgrid.exe compilado con intel

Yo recomendaría que en un directorio a parte crearan un directorio en donde lanzar las simulaciones con todos los directorios necesarios de WRF y los ficheros necesarios (están todos en /opt/wrf/[version_WRF]/[compilador]/[version_compilador]/[tipo_paralelizacion]/). Para cada componente copiarle su script pbs necearia. Antes de lanzar, tendrán que introducir su dirección de correo para poder recibir un mensaje cuando la script haya terminado.

Herramientas personales