Guía de usuario del SCAD del CIMA
(→Librerías y modelos disponibles) |
|||
(No se muestran 29 ediciones intermedias realizadas por 4 usuarios) | |||
Línea 1: | Línea 1: | ||
− | Para ejecutar el modelo: |
+ | ==Librerías y modelos disponibles== |
− | *Primero es conveniente limpiar todos los archivos temporales: |
+ | Por defecto no se cargan variables de entorno para los compiladores. |
− | make clean |
||
− | make mpclean |
||
− | *Luego compilar: |
+ | ===Elegir librerías a utilizar (Intel o GNU)=== |
− | make mpp |
+ | * Puedes listar las '''librerias''' disponibles y seleccionar la deseada ejecutando: |
+ | <pre>source /opt/load-libs.sh</pre> |
||
− | *Después editar el pbs que permite ejecutar el modelo |
+ | * Tambien puedes cargar las librerías deseadas desde un script agregando: |
− | **En el pbs tengo que elegir la cantidad de nodos y procesadores que quiero utilizar |
+ | <pre>source /opt/load-libs.sh [N] <--- Siendo [N] el numero de opción de las librerías deseadas</pre> |
− | ***En este ejemplo estoy eligiendo 8 nodos de 1 procesador cada uno: |
+ | |
+ | ===Modelos pre compilados=== |
||
+ | |||
+ | * Las librerías y modelos se encuentran instalados en: |
||
+ | /opt |
||
+ | |||
+ | * Dentro de cada directorio se encuentra la versión de la librería o modelo según el compilador utilizado. Por ejemplo: |
||
+ | /opt/wrf/WRF-4.3.2/intel |
||
+ | |||
+ | o |
||
+ | /opt/wrf/WRF-4.3.2/gnu |
||
+ | |||
+ | |||
+ | * Para listar las '''versions de WRF''' disponibles y obtener su ubicación puedes ejecutar |
||
+ | <pre>wrf-path</pre> |
||
+ | |||
+ | ==Para ejecutar un trabajo:== |
||
+ | |||
+ | *En el archivo pbs elijo la cantidad de nodos y procesadores que quiero utilizar. Ejemplo para 8 nodos de 1 procesador cada uno: |
||
<pre>#PBS -l nodes=8:ppn=1 |
<pre>#PBS -l nodes=8:ppn=1 |
||
PROC_NO=8</pre> |
PROC_NO=8</pre> |
||
− | :*Otro ejemplo es elegir 3 nodos de dos procesadores cada uno: |
+ | *Otro ejemplo es elegir 3 nodos de dos procesadores cada uno: |
<pre>#PBS -l nodes=3:ppn=2 |
<pre>#PBS -l nodes=3:ppn=2 |
||
PROC_NO=6</pre> |
PROC_NO=6</pre> |
||
− | :*Además hay que elegir el nombre del archivo ejecutable: |
||
− | EXEC_NAME="mm5.mpp" |
||
− | *Por último, debemos indicar que cola se usará. Actualmente hay dos colas: |
+ | *Por último, debemos indicar que cola se usará. Actualmente hay sólo una cola (larga) |
− | **corta: para corridas de no más de 3hs. |
+ | #PBS -q larga |
− | **larga: Para corridas de mayor duración |
||
− | #PBS -q corta |
||
*Una vez que esta todo modificado ejecutamos: |
*Una vez que esta todo modificado ejecutamos: |
||
− | qsub pbs |
+ | qsub corrida.pbs |
*Para visualizar lo que ejecutamos y el estado: |
*Para visualizar lo que ejecutamos y el estado: |
||
Línea 27: | Línea 25: | ||
*Para matar el trabajo que enviamos: |
*Para matar el trabajo que enviamos: |
||
qdel <número de trabajo> (número de trabajo lo sabemos haciendo qstat –n) |
qdel <número de trabajo> (número de trabajo lo sabemos haciendo qstat –n) |
||
+ | |||
+ | *Config de un archivo PBS típico |
||
+ | <pre> |
||
+ | ## Job Name |
||
+ | #PBS -N nombreJob |
||
+ | |||
+ | ## Novedades por mail |
||
+ | #PBS -m abe |
||
+ | #PBS -M <my.user>@cima.fcen.uba.ar |
||
+ | |||
+ | ## Joins standard and Error outputs in a single file |
||
+ | #PBS -j oe |
||
+ | |||
+ | ## Queue |
||
+ | #PBS -q larga |
||
+ | |||
+ | ## resources |
||
+ | #PBS -l nodes=3:ppn=1 |
||
+ | </pre> |
||
+ | |||
+ | == Scripts PBS == |
||
+ | Para facilitar las cosas y poder empezar a simular, se creó un repositorio GIT para las scripts necesarias para simular con WRF. |
||
+ | |||
+ | Una vez conectados a hydra, sólo tienen que hacer: |
||
+ | <pre> |
||
+ | $ git clone https://git.cima.fcen.uba.ar/lluis.fita/hydra.git |
||
+ | </pre> |
||
+ | |||
+ | Ahí les preguntará por <code>usuarie / pwd </code> (el mismo que el del correo) |
||
+ | |||
+ | Se creará un directorio llamado <code>hydra</code>. En él encontrarán todas las scripts necesarias para simular |
||
+ | |||
+ | === WRF === |
||
+ | Scripts para WRF en <code>'pbs/wrf/'</code>, contenido: |
||
+ | |||
+ | * <code>launch_geogrid_intel.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>geogrid.exe</i> compilado con intel y crear los dominios |
||
+ | * <code>launch_metgrid_intel.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>metgrid.exe</i> compilado con intel |
||
+ | * <code>launch_real_intel.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>metgrid.exe</i> compilado con intel |
||
+ | * <code>launch_ungrib_intel.pbs</code>: para lanzar el <i>ungrib.exe</i> compilado con intel |
||
+ | * <code>launch_wrf_gnu_dmpar.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>wrf.exe</i> compilado con gnu |
||
+ | * <code>launch_wrf_intel_dmpar.pbs</code>: para lanzar en paralelo (sólo MPICH) el <i>metgrid.exe</i> compilado con intel |
||
+ | * <code>launch_wrf_intel_dm+sm.pbs</code>: para lanzar en paralelo (híbridio MPICH y openMP) el <i>metgrid.exe</i> compilado con intel |
||
+ | |||
+ | Yo recomendaría que en un directorio a parte crearan un directorio en donde lanzar las simulaciones con todos los directorios necesarios de WRF y los ficheros necesarios (están todos en <code>/opt/wrf/[version_WRF]/[compilador]/[version_compilador]/[tipo_paralelizacion]/</code>). Para cada componente copiarle su script pbs necearia. Antes de lanzar, tendrán que introducir su dirección de correo para poder recibir un mensaje cuando la script haya terminado. |
Última revisión de 17:27 22 feb 2024
Contenido |
[editar] Librerías y modelos disponibles
Por defecto no se cargan variables de entorno para los compiladores.
[editar] Elegir librerías a utilizar (Intel o GNU)
- Puedes listar las librerias disponibles y seleccionar la deseada ejecutando:
source /opt/load-libs.sh
- Tambien puedes cargar las librerías deseadas desde un script agregando:
source /opt/load-libs.sh [N] <--- Siendo [N] el numero de opción de las librerías deseadas
[editar] Modelos pre compilados
- Las librerías y modelos se encuentran instalados en:
/opt
- Dentro de cada directorio se encuentra la versión de la librería o modelo según el compilador utilizado. Por ejemplo:
/opt/wrf/WRF-4.3.2/intel
o
/opt/wrf/WRF-4.3.2/gnu
- Para listar las versions de WRF disponibles y obtener su ubicación puedes ejecutar
wrf-path
[editar] Para ejecutar un trabajo:
- En el archivo pbs elijo la cantidad de nodos y procesadores que quiero utilizar. Ejemplo para 8 nodos de 1 procesador cada uno:
#PBS -l nodes=8:ppn=1 PROC_NO=8
- Otro ejemplo es elegir 3 nodos de dos procesadores cada uno:
#PBS -l nodes=3:ppn=2 PROC_NO=6
- Por último, debemos indicar que cola se usará. Actualmente hay sólo una cola (larga)
#PBS -q larga
- Una vez que esta todo modificado ejecutamos:
qsub corrida.pbs
- Para visualizar lo que ejecutamos y el estado:
qstat –n
- Para matar el trabajo que enviamos:
qdel <número de trabajo> (número de trabajo lo sabemos haciendo qstat –n)
- Config de un archivo PBS típico
## Job Name #PBS -N nombreJob ## Novedades por mail #PBS -m abe #PBS -M <my.user>@cima.fcen.uba.ar ## Joins standard and Error outputs in a single file #PBS -j oe ## Queue #PBS -q larga ## resources #PBS -l nodes=3:ppn=1
[editar] Scripts PBS
Para facilitar las cosas y poder empezar a simular, se creó un repositorio GIT para las scripts necesarias para simular con WRF.
Una vez conectados a hydra, sólo tienen que hacer:
$ git clone https://git.cima.fcen.uba.ar/lluis.fita/hydra.git
Ahí les preguntará por usuarie / pwd
(el mismo que el del correo)
Se creará un directorio llamado hydra
. En él encontrarán todas las scripts necesarias para simular
[editar] WRF
Scripts para WRF en 'pbs/wrf/'
, contenido:
-
launch_geogrid_intel.pbs
: para lanzar en paralelo (sólo MPICH) el geogrid.exe compilado con intel y crear los dominios -
launch_metgrid_intel.pbs
: para lanzar en paralelo (sólo MPICH) el metgrid.exe compilado con intel -
launch_real_intel.pbs
: para lanzar en paralelo (sólo MPICH) el metgrid.exe compilado con intel -
launch_ungrib_intel.pbs
: para lanzar el ungrib.exe compilado con intel -
launch_wrf_gnu_dmpar.pbs
: para lanzar en paralelo (sólo MPICH) el wrf.exe compilado con gnu -
launch_wrf_intel_dmpar.pbs
: para lanzar en paralelo (sólo MPICH) el metgrid.exe compilado con intel -
launch_wrf_intel_dm+sm.pbs
: para lanzar en paralelo (híbridio MPICH y openMP) el metgrid.exe compilado con intel
Yo recomendaría que en un directorio a parte crearan un directorio en donde lanzar las simulaciones con todos los directorios necesarios de WRF y los ficheros necesarios (están todos en /opt/wrf/[version_WRF]/[compilador]/[version_compilador]/[tipo_paralelizacion]/
). Para cada componente copiarle su script pbs necearia. Antes de lanzar, tendrán que introducir su dirección de correo para poder recibir un mensaje cuando la script haya terminado.