| 1078 | }}} |
| 1079 | |
| 1080 | * Pour améliorer légerement les performances : |
| 1081 | |
| 1082 | La configuration par défaut du modèle couplé à la résolution 96x95x39 est quasiment équilibrée, cad que le modèle d'atmosphère sur 30 CPUs est très légerement plus rapide que le modèle d'ocean sur 1 CPU. |
| 1083 | [[BR]] |
| 1084 | 1 jour simulé par LMDZ sur 30 CPUs : 25s |
| 1085 | [[BR]] |
| 1086 | 1 jour simulé par NEMO sur 1 CPU : 27s |
| 1087 | |
| 1088 | On voit donc que c'est le modèle d'océan qui va "guider" le temps de restitution du modèle couplé complet. En utilisant 2 process MPI pour l'océan on obtient : |
| 1089 | [[BR]] |
| 1090 | 1 jour simulé par LMDZ sur 29 CPUs : 25s |
| 1091 | [[BR]] |
| 1092 | 1 jour simulé par NEMO sur 2 CPU : 15s |
| 1093 | |
| 1094 | On voit donc que désormais, c'est le modèle d'atmosphère qui va "guider" le temps de restitution du modèle couplé complet. Mais à cette résolution là, il n'est pas possible d'utiliser plus de process pour LMDZ en parallélisation MPI seule (limite à 3 bandes de latitudes par process MPI). |
| 1095 | |
| 1096 | La configuration idéale est donc : 29 CPUs ATM, 2 CPUs OCE et 1 CPU pour Oasis. |
| 1097 | Pour activer cette configuration-là, deux étapes sont nécessaires : |
| 1098 | |
| 1099 | * Compilation : recompiler NEMO pour qu'il tourne sur 2 process MPI en modifiant directement le code : |
| 1100 | {{{ |
| 1101 | vi modipsl/modeles/NEMO/WORK/par_oce.F90 (lignes 29-31) |
| 1102 | jpni = 1, & !: number of processors following i |
| 1103 | jpnj = 2, & !: number of processors following j |
| 1104 | jpnij = 2 !: nb of local domain = nb of processors |
| 1105 | |
| 1106 | cd modipsl/config/IPSLCM5 ; gmake |
| 1107 | }}} |
| 1108 | |
| 1109 | * Execution : modifier la répartition du nombre de process à lancer |
| 1110 | {{{ |
| 1111 | vi modipsl/libIGCM/libIGCM_sys/libIGCM_sys_titane.ksh (ligne 1192) |
| 1112 | NUM_PROC_OCE=2 |