= Performances IPSLCM5A = [[PageOutline]] = 2011 = == Ressources disponibles == || centre || Supercalculateurs || Estimation des ressources disponibles DARI 2012- 1ère session || || CINES || IBM Power7 - Yoda || 920 300 || || || SGI ICE - Jade || 111 055 000 || || IDRIS || IBM SP – Vargas || 18 288 000 || || || IBM BG/P - Babel || 198 956 000 || || CCRT || Bull Xéon – Titane || 33 064 000 || || || Bull Xéon – Titane noeuds hybrides GPU || 920 000 || || TGCC || Bull - Curie nœuds larges || 6 902 000 || || || Bull - Curie nœuds fins || 40 500 000 || || || Bull - Curie nœuds hybrides GPU || 144 000 || == Performances connues == '''CINES''' : l'environnement des simulations IPSL n'est pas installé. === CINES IBM yoda === Pas de performances connues === CINES SGI jade === Grand challenge NEMO (Drakkar) '''Attention''' : pas d'environnement modipsl/libIGCM à ce jour. ==== IPSLCM5A : 96x95x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || Temps réel || '''Temps à demander''' || || jade || 32 || 60h || '''1920 h''' || ==== Résolution 144x142x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || Temps réel || '''Temps à demander''' || || titane || 64 || ?? || '''??''' || Test en cours (20/9/2011) === IDRIS IBM vargas === * Les post-traitements des simulations faites sur vargas se font actuellement sur ulam. Nous rencontrons des difficultés insurmontables dans les post-traitements sur ulam et en l'état, il est impossible de réaliser des simulations de type CMIP5 (historical) en production. * Il faudrait pouvoir post-traiter les simulations faites sur vargas sur vargas elle-même. Il s'agit des jobs de rebuild, TS et Monitoring, SE et ATLAS. Pour cela il faudrait sur vargas : * disposer des outils nco et C° nécessaires (rappeler la liste svp) * avoir la possibilités de lancer jusque 150 jobs à la fois, en classe scalaire sur vargas. C'est ce que peut soumettre le script !TimeSeriesChecker de vérification des TS * avoir la possibilité de tourner une vingtaine de jobs de type scalaire simultanément par utilisatueur * disposer de l'espace TMPDIR nécessaire à ces jobs de post-traitements qui tourneraient simultanément. * Chiffrages issus de la simu v3.historicalV52 qui a tourné entre mai et juin 2011 : * Une simulation de type historical (1850-2006, 157 ans) tourne en lançant 40 jobs enchainés sur vargas (<10h). * L'execution s'est étalée sur une période de 1 mois environ. Elle a lancé au fur et à mesure les jobs de post-traitements sur ulam puis le rattrapage des TS a été lancé à la main. En tout : * 156 jobs de rebuilds, (<10h) 9 à refaire à la main à cause de souci d'accès aux fichiers gaya * 15 jobs de SE (moyennes saisonnières), (<10h) * 30 jobs de monitoring (<1h) * 45 jobs d'atlas (<1h) * 464 jobs de !TimeSeries (TS) en direct (<20h) * 166 jobs de TS (<20h) de rattrapage (via le script !TimeSeriesChecker) * Les jobs de TS peuvent partir en time limit exceeded. Le max de temps réel étant actuellement de 20h. ==== IPSLCM5A : 96x95x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || Temps CPU || Mémoire || Temps réel || '''Temps à demander''' || || vargas (IDRIS) || 32 (5 océan + 26 atmosphère) || 1300 h || - || 40 h || '''1 300h''' || Attention aux ressources pour le post-traitement. === IDRIS !BlueGene babel === Utilisation non conseillée. Tests avec NEMO seulement. === CCRT Bull titane === 2 difficultés majeurs sur titane : * Les post-traitements des simulations faites sur titane (et sur le SX9) se font actuellement sur cesium. Nous rencontrons des difficultés car cesium est trop petite pour absorber toute la charge des post-traitements. * Une première action a été de faire les rebuild sur la frontale de titane. Utiliser libIGCM_v1_11 pour cela. * Pour pouvoir faire tous les post-traitements sur titane il faudrait : * disposer des outils nco et C° nécessaires (rappeler la liste svp) * avoir la possibilités de lancer jusque 150 jobs à la fois, en classe scalaire sur titane. C'est ce que peut soumettre le script !TimeSeriesChecker de vérification des TS * avoir la possibilité de tourner une vingtaine de jobs de type scalaire simultanément par utilisateur * disposer de l'espace TMPDIR nécessaire à ces jobs de post-traitements qui tourneraient simultanément. * Le nombre d'inodes sur /dmnfs * Une simulation de type historical produit plus de 120 000 fichiers. * Les répertoires ATLAS et MONITORING sont sur /dmnfs pour être accessibles par dods. * Au TGCC, il est prévu d'avoir un 2ème espace visible depuis dods. Quand ce sera prêt on stockera les ATLAS (20 000) et MONITORING (400 fichiers) là et on en fera un tar pour stocker un seul fichier sur STOREDIR * Les fichiers de type Analyse et SE (2000 fichiers) resteront en l'état. A noter ils sont également visible depuis dods. Il y aura donc 2 serveurs dods. * Les fichiers de type Restart (22 000 fichiers) seront gardés une fois par an au lieu de une fois par mois de simulation. (2 000 fichiers au final) * Les fichiers de type Output seront regroupés (commande nccat) par an dans un répertoire Packed (au lieu de Output). Regroupement par 10 ans pou IPSLCM5A-LR et par 5 ans pour IPSLCM5A-MR. * Les fichiers de type texte seront regroupés par an ou plus (cat). * Le travail de développement nécessaire est important et un soutien ingénieur spécifique est demandé. Besoins déjà répertoriés : * script de !Package/Verification/Ménage, modification des scripts de TS pour tenir compte de la nouvelle arborescence, diffusion de cette pratique à tous, ... * mise en place d'un cache dans la chaine pour stocker les fichiers produits par les simus, les accéder depuis les jobs de post-traitements et stocker in fine sur SCRATCHDIR des fichiers qui ne seront plus utilisés par la chaine de production. Voir aussi [wiki:BasculeCCRTTGCC] ==== Résolution 96x95x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || Temps réel || '''Temps à demander''' || || titane || 32 || 35 h || '''1120 h''' || Attention aux ressources pour le post-traitement. Attention au nombre de fichiers sur le stockage. ==== Résolution 144x142x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || Temps réel || '''Temps à demander''' || || titane || 64 || ?? || '''??''' || Test en cours (20/9/2011) Attention aux ressources pour le post-traitement. Attention au nombre de fichiers sur le stockage. ==== Configuration Forcée : LMDZORINCA ==== Vous trouverez les renseignements sur cette [http://forge.ipsl.jussieu.fr/inca/wiki/INCAperformances page] === CCRT Bull titane GPUs === === TGCC Bull curie noeuds larges === '''Attention''' : pas d'environnement modipsl/libIGCM à ce jour. ==== Résolution 96x95x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || Temps réel || '''Temps à demander''' || || curie || 32 || 46 h || '''1472 h''' || === TGCC Bull curie noeuds fins === === TGCC Bull curie noeuds hybrides === = 2010 = C'est la suite de la page [wiki:PerformancesIPSLCM5] : qui décrivait les performances de IPSLCM5 en automne 2009. Quand on n'a pas les informations directement sur IPSLCM5A, on décrit quelques performances connues. A noter : * le couplé en 144x142 (IPSLCM5A-MR) prend 2,5 fois plus de temps que le couplé en 96x95. * les sorties complètes (type historical) CMIP5 ajoutent 20 % de temps sur les NEC. == CCRT == === SX9 : mercure === Ressources : 320 000 h dédiées GIEC ==== Résolution 96x95x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || Temps CPU || Mémoire || Temps réel || Temps à demander || || mercure (CCRT) || 4 || 88 h || 13 GB || 32 h || 140 h || ==== Résolution 144x142x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || Temps CPU || Mémoire || Temps réel || Temps à demander || || mercure (CCRT) || 8 || 180 h || 35 GB || 35 h || 300 h || === SX8R : mercure === Pour mémoire : pas de ressources disponibles ==== Résolution 96x95x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || Temps CPU || Mémoire || Temps réel || Temps à demander || || mercure (CCRT) || 4 || 130 h || 13 GB || 40 h || 160 h || === Xeon : titane === Ressources disponibles : 44 100 000 h Pour mémoire : Ressources disponibles sur '''GPU''' : 1 114 200 h ==== Résolution 96x95x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || Temps réel || '''Temps à demander''' || || titane || 32 || 35 h || '''1120 h''' || == IDRIS == === SX8 : brodie === Ressources disponibles (projets en prolongation seulement) : 512 000 h Attention, on compte en temps CPU sur le NEC de l'IDRIS. ==== Résolution 96x95x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || '''Temps CPU à demander''' || Mémoire || Temps réel || || brodie (IDRIS) || 4 || '''160 h''' || 11 GB || 50 h || === IBM : vargas === Ressources disponibles : 22 560 000 h ==== Résolution 96x95x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || Temps CPU || Mémoire || Temps réel || '''Temps à demander''' || || vargas (IDRIS) || 32 (5 océan + 26 atmosphère) || 1300 h || - || 40 h || '''1 300h''' || === IBM Blue Gene : babel === Pour mémoire. Ressources disponibles : 248 000 000 h == CINES == Ressources disponibles : 138 100 000 h === Xeon : jade === '''Attention''' : pas d'environnement modipsl/libIGCM à ce jour. ==== Résolution 96x95x39 - ORCA2 ==== '''Mesure consommation 10 ans''' || machine || Nb CPU || Temps réel || '''Temps à demander''' || || jade || 32 || 60h || '''1920 h''' ||