wiki:BasculeCCRTTGCC

Version 28 (modified by mafoipsl, 10 years ago) (diff)

--

Bascule CCRT vers TGCC

Page débutée en Août 2011

Prochaine telco : février 2012. Jour à confirmer. Numéro d'appel : 0821 230 749

Cette page contient les résultats des journées de brainstorming sur la migration CCRT-TGCC

Cette page décrit les étapes nécessaires pour intégrer dans nos chaines de calcul les évolutions dues à la bascule du CCRT vers le TGCC.

Constat

L'utilisation de /dmnfs comme espace de stockage est à revoir. Au TGCC, l'espace fichier : $STOREDIR est un espace d'archivage. Son utilisation doit être l'archivage de fichiers de grande taille.

Le travail à faire est important et un soutien ingénieur est demandé. Il faut convertir la chaine, la tester en grandeur nature, convertir les données existantes et former à tout cela l'ensemble des acteurs.

Evolution de la chaine de calcul

  • Utilisation de l'espace /scratch par les simulations en cours d'execution,
  • Gestion/ménage de l'espace /scratch par la chaine,
  • Output : Ajout d'étape de compactage des fichiers Output (voir outil create_pack).
    • On essaye par 10 ans. Voir calcul dimension.
    • Stockage du résultat dans STOREDIR
  • Analyse : Stockage des fichiers Analyse tels quels sur STOREDIR.
    • Création depuis /scratch ou depuis fichiers Output compactés sur STOREDIR
    • Prévoir accès par dods des fichiers SE et TS.
  • Restart : prévoir sélection d'un fichier par an dans /scratch avant stockage dans STOREDIR
  • Debug :
    • fichiers gardés sur /scratch seulement?
    • seulement les 10 premières années compactés et gardés?
  • ATLAS et MONITORING :
    • fichiers gardés sur /work avec accès par dods.
    • tar et stockage sur STOREDIR
  • Rappel (ajout après relecture 2/8/2011) : besoin d'un espace $TMPDIR par job. Créé et vide au début du job, détruit en fin de job. Besoin pour chaque job de type exécution ou pré/post-traitement.

Questions

  • Est-ce qu'on sait manipuler avec nccat des fichiers de 30, 40 70 et 120 Go?
  • Où peut-on faire des essais? sur curie?

Transition

  • Déplacement des simulations de /dmnfs vers STOREDIR
  • Faut-il avoir toutes les variables (1D et HF) en TS?
  • Output : Besoin d'un outil de type Pack_checker qui prend les répertoires depuis /dmnfs et lance l'outil create_pack pour compacter les répertoires Output
  • Analyse : Besoin d'outils de transferts pour le répertoire Analyse
  • Debug : ménage
  • Restart : sélection de 1/12 et transfert

Dimension des ressources

  • dimension espace /scratch pour les simus : 6 fois 50 ans soit 30 To au départ. Prévoir 50 To l'année suivante.
  • dimension dods ATLAS et MONITORING : 10 To

Outils

  • create_pack :
    • Basé sur create_SE
    • prend 10 ans, fait les nccat, stocke sur STOREDIR
    • extension possible pour les simulations prolongées dans un 2ème temps
    • utilisation depuis /scratch dans la nouvelle chaine ou depuis /dmnfs pour les transferts
  • unpack :
    • basé sur ncks pour extraire et éclater les fichiers selon nomenclature /scratch
  • pack_checker :
    • vérification de l'existence des fichiers Output packés sur STOREDIR
    • lance create_pack depuis /dmnfs

Planning

  • dimension espaces : août 2011
  • test outils :
    • nccat sur fichiers de 148 Go, avec netcdf4 compressé en sorties,
  • présentation IPSL : septembre 2011
  • prototypes outils : septembre/octobre 2011

Evolution à moyen terme

  • faire les simus par an
  • utilisation de l'ioserver pour éviter l'étape rebuild
  • stockage en netcdf4 compressé

Dimension et nombre de fichiers pour une simulation historical : 156 ans

Résolution Pack par 120 mois Pack par 60 mois
96x95x39 nb fichiers 3852 4339
nb fichiers Restart 1404 1404
espace fichiers Restart 88 Go 88 Go
le plus gros 65 Go 32 Go
moyenne 3,5 Go 3 Go
Total espace 13 To 13 To
144x142x39 nb fichiers 3852 4339
nb fichiers Restart 1404 1404
le plus gros 148 Go 73 Go
moyenne 7 Go 6 Go
Total espace 25 To 25 To
espace fichiers Restart 100 Go 100 Go

notes telco 3/8/2011

  • tests faisables sur curie, avec login projet COUAC pour commencer
  • Pas de classe mono particulière, mettre dans les files d'attente par défaut les tests et les post-traitements
  • TMPDIR existera sur curie. Il faudra, bien sûr, faire cd $TMPDIR
  • créer une simu de travail de type historical sur /scratchdir sur curie :
    • avec fichiers vides. Voir /ccc/scratch/cont005/pa0369/foujolsm/TESTS_CCRT/IGCM_OUT/IPSLCM5A/PROD/historical/create_simu_bidon qui crée le répertoire BIDON/$1 avec 91500 fichiers selon l'arborescence IGCM_OUT. Il manque le répertoire des ATLAS.
    • avec fichiers remplis par une vraie simu quand on aura lancé une vraie simu de prod sur curie
  • sept/oct : accès aux répertoires CCRT depuis TGCC et TGCC depuis CCRT ie logins CCRT ouverts

notes telco 7/10/2011

  • TGCC :
    • Voir présentation COMUT
    • STOREDIR, WORKDIR communs aux machines,
      • STOREDIR : archivage in fine des fichiers en nombre réduits et très gros ( 1-> 100 Go)
      • WORKDIR : 1 TO, genre HOME collectif
    • SCRATCHDIR local à chaque machine. Besoin estimé à 50 To par login faisant des simus de production (30 pour commencer?)
      • sur curie :
        • simulations
        • utilisation de SCRATCHDIR pour stockage des simus pendant toute leur vie,
        • utilisation de SCRATCHDIR par les jobs de post-traitements tournant sur curie aussi, stockage des résultats sur STOREDIR
        • chaine modifiée avec outil de pack inclus, stockage des résultats sur STOREDIR
    • dods . Besoin identifié de 3 serveurs :
      • dods petits fichiers stockés sur WORK (et sous forme tarés sur STOREDIR)
      • dods fichiers entre 1 et 100 Go depuis STOREDIR
      • dods/datanode pour publication, des fichiers au format CMOR, sous le login p86cmip5
  • Outil pack :
    • besoin de décrire le besoin en détail et le design :
      • simus longues et très longues, simus haute résolution , ...
      • create_pack, check_pack,
      • TS depuis pack, SE depuis pack, ...
      • IGCM_OUT et SORTIES_CPL_IPSL
      • travail collectif à prévoir mi-octobre/novembre
  • Période intermédiaire :
    • simulation sur titane ou mercure,
    • utilisation de STOREDIR et WORKDIR communs, STOREDIR selon nouvelles règles
    • accès à /dmnfs en lecture seulement
  • Déménagement :
    • Dès l'ouverture des accès à STOREDIR, déménager les fichiers utilisés par le serveur dods/datanode
    • le CCRT déménagera les fichiers des autres communautés : 1,5 Po
    • Pour nous, déménagement avec inclusion outil pack dans un 2ème temps, à commencer au plus tard en février 2012
    • login exemple : p24luc
  • Soucis actuels :
    • surcharge ponctuelle de cesium en interactif. trop de find, ls , rsync simultanés Vérification de l'ouverture des accès vers ciclad depuis noeuds de calcul cesium
    • surcharge structurelle permanente :
      • transferts cesium et SX9 -> /dmnfs majoritaires
      • ccc_archive va être suspendu pour voir si cela va mieux (retour à situation été 2010?)
    • ccc_archive : enregistrement des commandes et passage ultérieur, sous le monitoring du CCRT pour limiter le nb de lecteurs utilisés. Explication à faire aux utilisateurs de ccc_archive
    • déménagement : tar par sous-répertoires pour limiter les fichiers résultats (entre 1 et 100 Go)

Notes telco lundi 14 novembre 2011

Participants : GW, PL, OM, ACa, ACo, MAF

  • DMF se porte bien mieux depuis l'arrêt de ccc_archive. La nouvelle mouture de ccc_archive (qui enregistre les demandes pour les faire plus tard) sera disponible très prochainement.
  • A signaler le login labetoul sur /dmnfs13 très petit. Aucune modification d'espace /dmnfs prévue.
  • Logins GENCI au TGCC : en janvier 2012
  • Pérenniser les données créées sur Curie lors des Preparatory Access sur les espaces des comptes CCRT classiques.
  • Accès aux nouveaux répertoires TGCC depuis les machines du CCRT (titane, platine, cesium, mercure) à partir de la semaine prochaine. $CCCWORKDIR et $STOREDIR. Voir infos dans CR Comut et message à venir à tous les utilisateurs et à JL Dufresne.
    • En résumé :
      • à partir de la semaine prochaine sur les machines titane, platine, cesium et mercure, on peut utiliser les répertoires CCCWORKDIR et STOREDIR pour se faire la main
      • à partir de fin février, certains n'auront plus l'accès en écriture sur /dmnfs . Cela se fera par /dmnfsxxx et s'étalera sur 3 mois.
      • utilisation du script spécial libIGCM pour migrer/rassembler les résultats de simus.
      • fin de la migration en décembre 2012.
      • IPSL : besoin de travailler sur libIGCM. voir journées libIGCM et cahier des charges aide CCRT à écrire pendant ces journées.
  • Participation du CCRT au brainstorming libIGCM. Sans doute une partie, en attente de l'ODJ.
  • Affaires courantes : filtrage ciclad[2] avec les noeuds de calcul Césium. Devrait se débloquer. Promis.
  • scratchdir sur Titane : catastrophe. Pourquoi ? Des solutions ? Comment ce dysfonctionnement va t'il apparaître dans les statistiques présentées au COMUT, au COPIL et à GENCI ?
    • un correctif pour les soucis de No space left on device sur scratchdir titane a été appliqué.
    • il reste une erreur (ce matin) d'écriture netcdf. Ne se produit pas en WORKDIR. A suivre.
    • Discussion sur les indicateurs de fonctionnement. A suivre.
  • scratchdir sur curie
    • Discussion sur la nouvelle chaine qui utilisera largement scratchdir pour les simus en route et stockera des fichiers paqués sur STORE. Si perte de scratchdir, perte de longs morceaux de simulation
  • discussion sur les copies en double sur médias différents.
    • rien de prévu à ce jour
    • première réponse : trop lourd de dupliquer sur 2 centres, mais le besoin reste
    • étude du prix pour dupliquer sur media différents 500 To de fichiers (p86cmip5), 1 Po, 1,5 Po
    • 5000 cassettes dmf à ce jour
  • utilisation de la frontale tx7 de SX9 aussi longtemps que le SX9
  • discussion sur la fin de cesium.

Notes telco jeudi 15 décembre 2011

Participants : Gilles Wiber, Patrice Lucas, Thomas Leibovici, Kilian Cavalotti, Anne Cozic, Sébastien Denvil, Arnaud Caubel

  • Maintenance des machines du 13 décembre
    • Les problèmes suivants sont apparus au redémarrage des machines :
      • mercure : variables d’environnement mal positionnées. Origine du pb : modifs effectuées sur le "ccc_home".
      • titane : un "cd ~" a été ajouté dans profile.local.
      • Ces problèmes ont entrainé l’arrêt de la production IPSL sur mercure et titane jusqu’au 14 décembre après-midi. Tout semble rentré dans l’ordre. Ces pbs étaient dus à la situation exceptionnelle de fusion du CCRT et TGCC.
        • CCRT : des tests sur les variables d’environnement seront ajoutés lors des procédures de check passées pour valider les maintenances.
        • IPSL : necessité de fournir un bench type au CCRT à passer après chaque maintenance (et régulièrement ?) pour s’assurer d’une non régression de la chaîne.
    • /home/cont003/p86caub devient /ccc/cont003/home/dsm/p86caub.
      • A voir quelles permissions mettre sur les groupes dsm et genci*.
      • Rappel des standards d’utilisation : un seul login par utilisateur imputé sur plusieurs groupes.
  • Divers
    • Arrêt mercure SX8 : arrêt de la production au 31/12/2011 mais délai de connexion de 3 mois. Plus de ménage sera fait par les anciens utilisateurs, plus d'espace sera dispo pour les utilisateurs actuels.
    • Un seul login utilisateur sur Curie (et ailleurs !) : pour les utilisateurs qui avaient un compte en avance (type preparatory access) le compte sera supprimé et les données transférés sur le seul compte de l’utilisateur sur demande.
  • Migration des données
    • Calendrier :
      • Depuis fin nov 2011 : accès aux nouveaux espaces CCCWORKDIR et CCCSTOREDIR depuis les machines CCRT. Une indisponibilté prolongée du cccworkdir comme celle qui a eu lieu avant la maintenance ne se reproduira pas.
      • 3 mois pour migrer la production et préparation d’archive (ccc_archive).
      • Passage read-only :
        • 7 fevrier : comptes dormants + utilisateurs volontaires
        • Mars : dmnfs 1,2,3 et 13
        • Avril : dmnfs 4 à 12
      • Accès en read-only au dmnfs jusqu'à la fin des dmnfs (fin 2012 ?)
    • Espace tampon :
      • Deux espaces tampons à définir :
        • Espace utilisé pour la migration : 4Po situé sur le storedir mais NON VISIBLE par l’utilisateur
        • Espace utilisé pour le « pack » au cours de la production :
          • Mercure : scratchdir (partagé entre climat SX9 et utilisateurs SX8), on part sur 20TB, devrait être suffisant. Possibilité de quota par groupe plutôt que par utilisateur ? Taille de scratch nécessaire à affiner. STOREDIR = dernier recours car :
            • Pas fait pour ça
            • Montage NFS depuis mercure et titane
          • Titane : scratchdir, devrait être suffisant. Projection IPSL à affiner. Dernier recours : STOREDIR
          • Curie : scratchdir, quota à affiner, nombre de power-user
      • Trouver une variable d’ajustement avec toutes ces contraintes :en fonction de la taille des fichiers requises, du nombre de fichiers limité sur le Storedir, de la tailles de scratch nécessaire et disponible sur mercure et titane,…
    • Le passage de titane vers curie pour l’IPSL sera progressif mais le début d’année 2012 se fera sur titane car la production sur curie nécessite :
      • l’utilisation du pack dans la chaîne
      • le portage des différents outils (compilation,soumission,…) et la validation des modèles
    • Commande ccc_archive :
      • Anne a remonté quelques soucis sur la version actuelle. Des tests vont être refaits.
      • Le flag pour être "ipsl_packé" se fera via la commande ccc_archive. L’IPSL doit fournir ce qu’il faut intégrer dans le ccc_archive. A faire rapidement (idéalement avant les vacances, mi-janvier dernier délai).
      • Recommander d’utiliser le fichier « à plat » du cscratchdir avant l’utilisation du ccc_archive
      • Pas de limite (en nombre) d’archives demandées
    • Affectation des ressources calcul (heures) Curie. Estimer les ressources nécessaires et les affecter clairement à cette migration. Estimation : (8 CPUs sur 3 mois). Voir informations complètes sur la concaténation ipsl/vivaipsl
    • Cahier des charges :
      • Calendrier : dépôt fin janvier pour début de prestation début mars.
      • Toutes les parties listées dans le document sont pour une seule et même prestation.
      • Jean-Noël Richet et Bruno Froge s’occupent de ça.
    • Datanode : ouverture de filtrage OK, Dieter a avancé et voit avec Sébastien par mail pour continuer.
    • Dods : pas abordé.

Notes telco jeudi 19 janvier 2012

Participants : Gilles Wiber, Patrice Lucas, Thomas Leibovici, Anne Cozic, Sébastien Denvil, Olivier Marti, Marie-Alice Foujols

  • datanode ou dods1 :
    • filtres nécessaires, ouverts,
    • François X recruté au CEA suit cette installation
    • installation à refaire à partir de scratch
    • aide IPSL attendue si souci. OK puisque installation complète à l'IPSL en cours avec rédaction d'un mode d'emploi
    • datanode CCRT/TGCC nécessaire pour publier les données depuis le CCRT
      • pour le moment publication depuis l'IPSL et accès des demandeurs aux fichiers IPSL
      • besoin de ce datanode CCRT pour publier les données les plus volumineuses (HF 6H et 3H)
      • la publication depuis l'IPSL correspond à un palliatif temporaire. Ce datanode reste l'action CCRT/TGCC la plus prioritaire.
    • Attention : tout changement de nom (path complet inclus dans database) d'un fichier publié impose de le dépublier puis de le republier
  • bascule fichiers /dmnfs sur espace CCC_STOREDIR pour login prêt : p86cmip5
    • OK pour inclure ce compte dans la liste des migrations du 7 février. A priori pas de compactage. < 200 000 fichiers et 150 TO
    • Une fois les fichiers sur SCRATCHDIR, on pourra les publier de là sur le datanode TGCC/CCRT dods1.
    • Si la migration dépasse 4 (OK?) semaines, on publiera depuis DMNFS avant de dépublier/republier depuis STOREDIR mais ce serait mieux d'éviter cela.
    • Une fois /dmnfs en lecture seule, faire la CMORISATION directement sur CCCSTOREDIR
  • bascule fichiers /dmnfs sur espace CCC_WORKDIR pour login prêt : p24data (TGCC/CCRT)
    • OK pour inclure ce login dans la liste du 7 février. Compactage souhaité.
    • Migration avec compactage sur CCCSTOREDIR par le CCRT.
    • Anne fera les tar xvf en CCC_WORKDIR
  • ouverture serveurs dods pour mise à disposition petits fichiers de type Atlas et Trusting et ouverture serveur dods pour mise à disposition gros fichiers de type Analyse stockés sur CCC_STOREDIR
    • donner accès depuis le serveur dods.extra existant à un répertoire dods sur CCCSTOREDIR et à un autre répertoire dods sur CCCWORKDIR, accès en lecture seule
    • ajouter les commandes permettant de faire les liens hard pour les fichiers sur CCCSTOREDIR et CCCWORKDIR que l'on veut rendre visible : dods_cp à compléter
  • p86ipsl : bascule fichiers /dmnfs sur espace CCC_STOREDIR pour login prêt une fois la distinction fichiers pour dods faites
    • bascule en mars
    • migrer auparavant les pages du trusting sur le répertoire CCCWORKDIR et rendre ce qu'il faut visible sur dods. Voir http://webservices.ipsl.jussieu.fr/trusting/
    • Cible souhaitable : CCC_WORKDIR, donc compactage puis tar comme p24data
  • liste des comptes dormants susceptibles de migration précoce : le CCRTest en train de la préparer et l'envoie très vite.
  • installation des logiciels utiles sur titane (CCRT OK),
    • OK pour la liste, reste à valider les options.
    • utilisation de titane pour post-traitements au lieu de cesium,
      • test en production en cours, avec libIGCM revu (1ère étape aucun transfert de fichier direct sur DMNFS)
      • attention à la facturation des noeuds complets (*8!)
  • installation des logiciels utiles sur curie. A faire une fois la vérification sur titane OK.
  • point sur le développement de ipsl_pack,
  • commande ccc_archive :
    • réponse à la demande de correspondant dédié, hotline pour infos sur la commande, telco pour les internes. 500 Go visé.
    • ccc_archive en pleine action en ce moment pour p24previ
    • un lecteur monopolisé pour les lectures de bandes. Travail bande par bande.
    • discussion pour ajout option ipsl_pack avec Thomas Leibovici : passer à Thomas le prototype d'appel
  • point sur la rédaction du cahier des charges, attente retour Arnaud, discussion sur tests systématiques sur IDRIS, besoin à garder dans le cahier des charges
  • autres points :
    • facturation noeud titane complet (8 procs) pour les jobs mono donc les jobs de post-traitement
    • process fantômes sur les noeuds de calcul. Déséquilibre le parallélisme, fait partir les jobs en time limit, ....
      • code à l'origine de ces soucis repéré, actions en cours pour corriger le code et limiter les impacts.

Prochaine telco début février : doodle à lancer. Est-il possible de faire des visio, par rms par exemple? OK à Jussieu, LSCE?, TGCC?

Attachments (2)

Download all attachments as: .zip