Opérations en cours liées à l'extension Jean Zay H100

Cette page vous offre un aperçu des opérations en cours dans le cadre de la mise en ordre de marche de l'extension Jean Zay H100. Les informations données ici vont donc évoluer au fil du temps et nous vous invitons à venir la consulter régulièrement.

L'extension comporte de nouvelles frontales et des nœuds de calcul ayant chacun :

  • 2 processeurs Intel Xeon Platinum 8468 (48 cœurs à 2,10 GHz), soit 96 CPU
  • 4 GPU Nvidia H100 SXM5 80 Go
  • 512 Go de mémoire

Cette extension comporte également de nouveaux espaces disques plus volumineux et plus rapides utilisant un système de fichier Lustre. Ils remplaceront à terme les anciens espaces disques qui utilisent un système de fichier Spectrum Scale d'IBM.

La mise en ordre de marche nécessite que les données actuellement enregistrées sur l'ancien système de fichier (Spectrum Scale) soient copiées/déplacées sur le nouveau (Lustre). Vous retrouverez à terme les espaces disques habituels (HOME, WORK, ALL_CCFRWORK, SCRATCH, ALL_CCFRSCRATCH, STORE, ALL_CCFRSTORE) sur le nouveau système de fichier.

Notez que la volumétrie de stockage (en octets) des espaces WORK sera augmentée à cette occasion.

Modification des modalités d'accès au STORE

Depuis le lundi 22 juillet 2024, les modalités d'accès au STORE ont été modifiées. Ainsi, l'accès au STORE en lecture et écriture n'est plus possible depuis les nœuds de calcul mais il reste possible depuis les nœuds de connexion et les nœuds des partitions “prepost”, “visu”, “compil” et “archive”. Nous vous invitons à modifier vos jobs si vous accédez directement à l'espace STORE depuis les nœuds de calcul. Pour vous guider, des exemples ont été ajoutés à la fin de notre documentation sur les travaux multi-étapes.

Ce changement est dû au fait que la volumétrie du cache du STORE (sur disques rotatifs) sera diminuée au profit de la volumétrie du WORK. Nous ne pourrons plus garantir la redondance des données du STORE à la fois sur bandes magnétiques et sur disques rotatifs, comme c'était le cas jusqu'à présent. La présence de la donnée sur disques rotatifs permet une lecture/écriture relativement rapide de celle-ci. Avec la diminution de la volumétrie du cache, dans certains cas, la donnée pourra n'être stockée que sur bande magnétique (avec deux copies sur des bandes différentes pour garantir la redondance de donnée) ce qui dégraderait fortement les temps d'accès à la donnée et par conséquent les performances de vos calculs en cas d'accès direct au STORE.

Recopies HOME, WORK et STORE

L'IDRIS se chargera de recopier les données stockées dans les HOME, WORK, ALL_CCFRWORK, STORE et ALL_CCFRSTORE. Ces recopies nécessiteront des arrêts techniques pour s'assurer de la cohérence des fichiers qui ne doivent pas être modifiés durant la copie. De plus, en raison de la volumétrie que cela représente, les recopies prendront un certain temps pour être finalisées.

ATTENTION : nous ne ferons que de simples copies ce qui pourra entraîner des dysfonctionnements de vos exécutions, notamment si vous utilisez des liens symboliques (comme ceux que nous recommandons de faire pour les environnements Python personnels par exemple). En effet, ceux-ci ne seront plus valides.

Cas particulier du HOME

La migration des HOME est terminée depuis la maintenance du 30 juillet 2024. Nous vous invitons à vérifier vos scripts pour corriger les éventuels chemins codés en dur. Tout chemin de la forme /gpfs7kw/linkhome/… doit devenir /linkhome/… ou, si possible, être remplacé par l'usage de la variable d'environnement $HOME.

Cas particulier du WORK

La migration des espaces WORK a démarré le 30 juillet 2024. Cette opération se fait par lot pour éviter une trop longue indisponibilité de la machine. Elle nécessite cependant l'interruption des QoS “qos_cpu-t4” et “qos_gpu-t4” permettant l'exécution des travaux de plus de 20h.

Pour un projet donné, la migration se passera de la façon suivante :

  1. 20h avant le début de la migration, les travaux utilisant les heures du projet ne pourront plus démarrer afin d'éviter que des travaux essaient d'accéder au WORK pendant l'opération (ils apparaîtront alors avec le statut “AssocGrpJobsLimit”)
  2. juste avant le début de la migration, l'espace WORK du projet deviendra complètement indisponible, y compris depuis les frontales
  3. une fois la migration terminée, les variables d'environnement seront modifiées afin de pointer vers les nouveaux espaces WORK sur le système de stockage Lustre et les travaux en attente pourront à nouveau s'exécuter.

Attention : Si vous avez des travaux qui utilisent les heures d'un projet mais accèdent à l'espace WORK d'un autre projet, ils risquent d'échouer car nous ne pourrons pas bloquer leur démarrage de façon pertinente.

La commande idr_migstatus vous permet de suivre la migration de vos projets en indiquant pour chacun son statut actuel :

  • “pending” : la migration n'a pas encore été effectuée, vos travaux peuvent toujours s'exécuter et vous avez accès à votre WORK
  • “planned” : la migration va commencer dans les prochaines 24h, les nouveaux travaux ne peuvent plus démarrer mais vous avez toujours accès à votre WORK
  • “in progress” : la migration est en cours, vous n'avez plus accès à votre WORK
  • “migrated” : la migration est terminée, vous avez à nouveau accès à votre WORK et vos travaux peuvent à nouveau s'exécuter.
$ idr_migstatus
WORK migration status
---------------------
 - bid: planned since 2024-07-30T18:02
 - dum: migrated since 2024-07-30T17:00:00
 
Statuses:
 - "pending": migration pending, WORK space available, no impact on jobs
 - "planned": migration planned, WORK space available, jobs not yet running
   will stay pending with "AssocGrpJobsLimit" status
 - "in progress": migration in progress, WORK space unavailable, all jobs stay
   pending with "AssocGrpJobsLimit" status
 - "migrated": migration is done, WORK space available, no impact on jobs

Remarque : Le chemin absolu des espaces WORK va changer à l'occasion de la migration mais pour simplifier la transition, des liens seront mis en place de sorte à ce que les anciens chemins absolus restent fonctionnels au moins dans un premier temps. Une fois la migration effectuée, nous vous invitons néanmoins à modifier les éventuels chemins de la forme /gpfswork/… ou /gpfsdswork/projects/… qui pourraient apparaître dans vos scripts (si possible en les remplaçant par l'usage de la variable d'environnement) ou dans vos liens symboliques.

Cas particulier du STORE

Concernant le STORE, la migration a été finalisée le 25 juillet 2024, la variable $STORE habituelle référence désormais le nouveau système de fichier Lustre. Une variable $OLDSTORE a été créée pour référencer l'espace sur l'ancien système de fichier Spectrum Scale.

# référence le STORE sur le filesystem Lustre
$ echo $STORE
/lustre/fsstor/projects/rech/...
 
# référence l'ancien STORE en lecture seule sur le filesystem Spectrum Scale
$ echo $OLDSTORE
/gpfsstore/rech/...

Jusqu'à fin août, il restera possible d'accéder en lecture seule à l'ancien espace STORE en utilisant la variable d'environnement $OLDSTORE. Cette modalité d'accès sera même à privilégier dans les semaines qui suivront l'opération de migration. En effet, les données du nouveau STORE seront alors uniquement disponibles sur bandes magnétiques ce qui pourra très fortement ralentir l'accès aux données (jusqu'à plusieurs heures), le temps de repeupler le cache sur disques rotatifs avec les données les plus récemment utilisées.

Recopies SCRATCH et ALL_CCFRSCRATCH

Attention, pour les données enregistrées dans vos espaces SCRATCH et ALL_CCFRSCRATCH, le transfert des données est à votre charge. Les espaces actuels seront définitivement arrêtés le mardi 3 septembre 2024, il faut donc que vous ayez finalisé la migration de vos données avant cette date.

Nous vous demandons de faire le ménage et de ne recopier que les données que vous voulez conserver. Afin d'éviter les confusions entre les différents espaces et pour faciliter le suivi des migrations, nous vous recommandons de supprimer les données au fur et à mesure que vous avez validé leur transfert.

Notez que vous pouvez déjà faire vos recopies et utiliser les nouveaux espaces dans vos travaux en utilisant les variables d'environnement définies pour cela : $SCRATCH, $OLDSCRATCH et $NEWSCRATCH.

# référence le SCRATCH sur le filesystem Spectrum Scale
$ echo $SCRATCH
/gpfsscratch/rech/...
 
# référence l'ancien SCRATCH sur le filesystem Spectrum Scale
$ echo $OLDSCRATCH
/gpfsscratch/rech/...
 
# référence le nouveau SCRATCH sur le filesystem Lustre
$ echo $NEWSCRATCH
/lustre/fsn1/projects/rech/...
 
# Copie d'un répertoire de l'ancien SCRATCH vers le nouveau.
$ cp -rp $OLDSCRATCH/DIR $NEWSCRATCH/.
 
# Copie via rsync
$ rsync --human-readable --recursive --links --perms --times -v $OLDSCRATCH/DIR $NEWSCRATCH/.

Pensez à utiliser des travaux soumis sur les partitions archive ou prepost si les quantités de données à transférer sont importantes :

copie_donnees.slurm
#SBATCH --job-name=copie      # nom du travail
#SBATCH --partition=archive   # on utilise la partition "archive" ou "prepost" qui a accès au STORE
#SBATCH --ntasks=1            # on a un travail séquentiel
#SBATCH --hint=nomultithread  # 1 processus MPI par coeur physique (pas d'hyperthreading)
#SBATCH --time=20:00:00       # temps d execution maximum demande (HH:MM:SS)
#SBATCH --output=%x_%j.out    # fichier de sortie et d'erreur (%x = nom du travail, %j = numéro du travail)
# Si vous disposez de plusieurs projets ou de plusieurs types d'heures,
# vous devez spécifier la comptabilité à utiliser même si les heures ne
# seront pas décomptées pour les partitions "archive" et "prepost".
##SBATCH --account=...
 
# Copie vers l'ancien SCRATCH selon la méthode de votre choix
cp -rp $OLDSCRATCH/DIR $NEWSCRATCH/.
# Ou via rsync
$ rsync --human-readable --recursive --links --perms --times -v $OLDSCRATCH/DIR $NEWSCRATCH/.