Les réseaux SAN comment ça fonctionne ?

L’architecture SAN (pour Storage Area Network) est apparue il y a quelques années. Elle avait pour objectif d’offrir une approche différente (augmentation des performances des serveurs, augmentation des débits réseaux) aux problèmes de l’explosion de la volumétrie des données. Cette architecture est basée sur la constitution d’un réseau performant et dédié à l’échange de données avec les périphériques de stockage.
Le SAN permet ainsi de meilleures performances tout en déchargeant le réseau local.
Le réseau
Le réseau SAN est basé sur le protocole Fibre Channel (FC).
Le SAN est un réseau sur lequel sont connectés les serveurs et les périphériques de stockage (baies de disque). Tout serveur peut accéder à chacun des périphériques.
Les éléments que l’on retrouve le plus couramment sont :
  • un ou plusieurs fabrics ;
  • plusieurs baies (bandes ou disques) ;
  • des serveurs ;
  • des hubs/bridges fibres.
La majorité des SAN utilisent le média fibre optique, mais on peut aussi utiliser le cuivre.
Le schéma ci-dessous présente un réseau SAN “typique”. On notera ainsi la redondance des équipements réseaux et des liens, qui permettra de poursuivre l’exploitation en cas de défaillance d’un équipement.

La baie de stockage
La baie de stockage présente également une redondance au niveau des éléments comme des accès.
Les baies parmi les plus courantes comptent généralement :
  • plusieurs tiroirs de disques (ou DAE), ceux-ci sont généralement composés de 15 disques au maximum ;
  • chaque tiroir de disque est équipé de 2 cartes fibres ;
  • la baie est équipée de 2 “ordinateurs” appelés Storage Processor ou SP, qui permettent notamment d’administrer celle-ci (configuration des sauvegardes, gestion des groupes RAID, etc.) ;
  • chacun des SP dispose d’un processeur, d’un tampon d’accès pour les disques (transparent pour les utilisateurs), et d’une mémoire sur laquelle sont installés les outils de gestion de la baie ;
  • chacun des SP est équipé d’une batterie et d’une alimentation ;
  • un à plusieurs bus partent de chacun des 2 SP pour relier les cartes de chaque DAE.

Au final chacun des SP, seul, est capable de faire pleinement fonctionner la baie.
Pour offrir plus de souplesse et de sécurité, l’espace disque de la baie est divisé en groupes RAID. L’usage est souvent de ne pas faire de groupe RAID couvrant plusieurs DAE, pour simplifier l’administration de ceux-ci.
Ces groupes sont ensuite divisés en unités de stockage logiques appelées LUNs. Enfin, ces LUNs sont agrégés en meta-LUNs. L’idée de ce découpage est de permettre de partager la charge de travail sur plusieurs LUNs et sur plusieurs groupes RAID.
Le SAN fournit un accès bas-niveau aux informations stockées dans les LUN : les volumes sont directement accessibles en mode bloc depuis les systèmes de fichiers des serveurs. Un serveur “voit” donc l’espace de stockage comme son propre disque dur.
On comprend donc l’importance d’une bonne configuration des LUNs, du masking et du zoning.
Le zoning et le masking
Le zoning permet de créer un lien logique entre 2 éléments au sein du réseau SAN. Il est géré à l’intérieur d’un fabric par le switch.
L’utilisation du zoning permet donc de garantir de bonnes performances, en évitant les risques de collisions de trames fibres : pour cela, on considère généralement que le zoning minimal consiste à isoler les cartes fibres les unes des autres.
Les différentes zones sont identifiées par les liens colorées sur ce schéma.
Le masking permet de gérer des autorisations d’accès aux LUNs d’une baie. Ces autorisations sont configurées au niveau de la baie par des logiciels embarqués sur la baie de disque et/ou installés sur les serveurs.
En fonction de la politique de sécurité choisie, on pourra ainsi autoriser ou non la visibilité des LUNs aux différents hosts.
La configuration se fait généralement par la définition d’ensembles dans lesquels on associe le/les serveur(s) et le/les LUN(s) auxquels ils ont accès.
Gestion d’une panne sur un SAN
Voici un exemple de scénario de panne pouvant survenir en exploitation d’une baie :
  1. La baie est opérationnelle.
    Tout au long de son fonctionnement, une détection/correction d’erreurs à la volée est effectuée sur les I/O de chacun des disques (ceux-ci reposant notamment sur le polynôme de Reed Solomon, au niveau des secteurs).
    Le micro-logiciel installé sur chacun des disques exécute en plus à intervalles réguliers une série d’auto-tests (contrôle des temps d’accès, distance de la tête aux disques, etc.).
  2. Si ces tests révèlent un fonctionnement anormal, ou bien lorsque la quantité d’erreurs détectées dépasse un seuil : le disque est mis en faute.
    L’objectif théorique recherché est que le disque se mette en faute 24h avant qu’un dysfonctionnement aurait pu apparaître.
  3. Dans ce cas, un voyant s’affiche en façade, et une alerte apparaît sur la console de gestion de la baie. Le disque en faute n’est plus utilisé, et son contenu est reconstruit sur le spare s’il est présent. Cette opération durera quelques heures, pendant lesquels la baie sera toujours opérationnelle.
    A l’issue de cette reconstruction, si un autre disque venait à “tomber”, il n’y aurait toujours aucune perte d’information.
  4. Une nouvelle pièce est commandée : soit par le client qui aura vu l’alerte et demandé une intervention ; soit par l’entreprise chargée de la maintenance qui aura reçu une alerte provenant de la baie elle-même. Dans ce cas, c’est elle qui contactera le client pour planifier l’intervention.
  5. Après remplacement du disque, celui-ci est reconstruit à partir du spare. Lorsque la reconstruction est finalisée, il reprend sa place au sein du groupe RAID. Le spare redevient alors inutilisé.
On note que ce scénario garantit la conservation et la disponibilité des informations à tout moment de l’exploitation.
Les avantages et inconvénients du SAN
De part sa construction, le SAN possède un grand nombre d’atouts. Toutefois, il faut être conscient des inconvénients qu’il peut également avoir afin d’effectuer un choix éclairé.
Le SAN permet une mutualisation des espaces de stockage qui autorisent une grande souplesse. Un serveur ne dispose pas d’une baie de stockage attitrée : il ne souffre donc pas de limitations éventuelles, l’ajout de nouveaux périphériques de stockage est permis sans limitation théorique. Cependant, cette mutualisation implique aussi qu’une modification d’un élément impactera facilement plusieurs serveurs et/ou baies de stockage. Concrètement, il n’est pas immédiat de retrouver quels serveurs peuvent utiliser un disque donné.
Le réseau dédié mis en place permet d’excellentes performances, mais peut se révéler coûteux.

Par ailleurs, si les réseaux SAN permettent le support d’un grand nombre de produits et d’environnements souvent hétérogènes, une vérification de la compatibilité sera souvent nécessaire grâce aux matrices fournies notamment par les constructeurs. Ce genre d’étude peut parfois s’avérer fastidieux et c’est la raison pour laquelle nombre d’entreprises préfèrent faire appel à des prestataires extérieurs qui assureront notamment l’administration du réseau. Ces coûts s’ajouteront notamment à ceux déjà élevés du matériel (switchs, cartes fibres, etc.).
Share on Google Plus
    Blogger Comment
    Facebook Comment