# Principe: # Le cluster de calcul comprend 2 partitions: # * Une partition de 9 noeuds identiques de 8 cpus pour le calcul parallèle # * Une partition de 6 noeuds de 8 et 2 cpus (soit 36) pour le calcul scalaire # Des queues de batch différentes permettent d'accéder à l'une ou l'autre des partitions Le système de batch scalaire comprend 4 queues: # * Une queue de 1 heure de CPU "short" # * Une queue de 12 heures de CPU "medium" # * Une queue de 3 Jours de CPU "long" # * Une queue de 15 Jours de CPU "xlong" # Le système de batch parallèle comprend 4 queues: # * Une queue de 1 heure de CPU "shortp" # * Une queue de 12 heures de CPU "mediump" # * Une queue de 3 Jours de CPU "longp" # * Une queue de 15 Jours de CPU "xlongp" # Règles d'utilisation: # * Sur chaque queue peuvent tourner au maximum 16 travaux. # * Sur l'ensemble du sytème tournent au plus un job par processeur. # * Un utilisateur ne peut soumettre plus de 6 travaux, sur l'ensemble des queues. # * Un utilisateur ne peut soumettre plus de 6 travaux sur une queue. # Pour avoir toutes les statistiques sur l'utilisation du cluster usr l'année courante, cliquez ici. # Les statistiques de l'année précédente sont ici # Soumission de travaux: # Les travaux peuvent etre soumis depuis les machines asterixN ou obelixN. # Pour soummettre un job: # qsub -q short|medium|long|xlong mon_job # Si votre job utilise plusieurs processeurs, il faut l'indiquer dans la commande de soumission: # qsub -l nodes=1:ppn=3 -q longp mon_job # Pour avoir de bonnes performances, il faut réserver les processeurs sur le meme noeud de calcul (nodes=1) # Pour connaitre l'état des jobs: # qstat # Pour détruire un job: # qdel mon_numero_de_job # Il existe des man pages pour toutes ces commandes qui disposent de nombreuses options.