Les annonces continuent en ce début d’année 2016 en matière de systèmes convergés et hyper-convergés. Après, VxRAIL d’EMC il y a quelques jours, Cisco propose désormais sa nouvelle plateforme hyper-convergée “HyperFlex”. Basée sur la plateforme UCS bien connue dans le monde du convergé depuis plusieurs années déjà, HyperFlex se présente comme une architecture scale-out assez proche, dans sa philosophie, de Nutanix ou HyperScale d’Atlantis : chaque serveur “compute” dispose d’une VM spécifique chargée de gérée les I/O et les accès aux données des autres serveurs de la ferme. Mais voyons cela de plus près.
Coté hardware, Cisco s’appuie donc en grande partie sur les éléments des UCS, à savoir des serveurs x86 particulièrement faciles à gérer au quotidien (IL FAUT tester une plateforme UCS une fois dans votre vie pour comprendre cette élégante simplicité de gestion des configurations, je vous le conseille) et une Fabric IP strictement parfaite pour toute la partie communication, en somme un ensemble hardware parfaitement taillé pour absorber tout type de workload.
La où Cisco innove et s’insère dans un nouveau marché avec HyperFlex, c’est sur la partie storage. En effet, sa couche résolument SDS “HX Data Platform” devient donc la première solution de stockage distribué du constructeur. Dans son aspect multi tier, elle ressemble beaucoup à celle de VSAN avec un “cache tier” en SDD doublé d’un “capacity tier” sur disque classique (voir mon billet au sujet de VSAN ici). La couche HX va malgré tout plus loin encore en utilisant un système hybride de distribution des I/O sur tous les noeuds au niveau du cache SSD puis des réplicats en nombre suffisant suivant la politique de tolérance aux pannes choisie sur les disques classiques capacitifs.
D’après Cisco, cette méthode permet d’éviter les points chauds inhérents à tout cluster scale-out tout en équilibrant la charge réseau toutes les machines. D’autre part, étant donné la distribution mécanique des blocks les plus fréquemment accédés sur l’ensemble des SSD cache du cluster, un vMotion d’une VM d’un host à l’autre ne nécessite aucun déplacement ou ré-équilibrage de la localisation des données. Effectivement, vu sous cet angle, la data “récente” est quasi systématiquement disponible localement, quel que soit l’emplacement de la VM. Enfin, concernant le de-staging sur disque à plateau, le SDS constitue des agrégations de block pour pouvoir maximiser les écritures séquentielles et donc éviter les latences induites par le déplacement des têtes. De ce point vue, on retrouve un peu la philosophie de ré-organisation des I/O chère à Atlantis USX.
Concernant la méthode de présentation aux ESXi, IP Fabric oblige coté réseau (Cisco est quand même LE spécialiste en la matière…), celle-ci est identique à beaucoup d’autres compétiteurs sur ce segment, il s’agit du protocole NFS, combiné à un connecteur VAAI pour la gestion avancée (snap, clones, politiques de résilience etc. …).
Evidemment, HX Data Platform est fournie avec tous les accessoires de rigueur aujourd’hui : dé-duplication et compression inline, snapshots, clones etc. … La compression inline est réalisée sur des blocs de taille variable ce qui permet d’améliorer en général les niveaux de compression mais induit une latence plus élevée. De ce coté, Cisco semble affirmer que son algorithme garantit quoi qu’il arrive des latences réduites, quel que soit la charge de compression. Il faudra comparer cela à l’usage évidemment. Concernant la dé-duplication, inline elle aussi, elle s’applique à l’ensemble de la chaîne (mémoire cache, SSD cache et capacity TIER). HX Data Platform est capable d’effectuer (avec l’aide de VAAI coté VMWare) des snapshots au niveau fichier ; en ce sens, elle permet à VMWare de réaliser des snapshots à chaque VM en délégant complètement l’opération au SDS. Grâce à cette méthode, on se rapproche fortement d’un système équivalent à VVOL ou chaque machine virtuelle est parfaitement identifiée et gérée spécifiquement par le stockage.
Enfin, du coté de la résilience globale, Cisco annonce un système de rebalancing automatique et back-end particulièrement efficace en cas de panne d’un des composants hardware et s’appuyant sur les mécanismes déjà décris plus haut (notamment l’écriture stripée des données sur l’ensemble des SSD caches lors d’une écriture). En cas de problème local sur un disque, la couche SDS redirige automatiquement les I/O sur les noeuds restants, garantissant un niveau de disponibilité élevé.
Tout cela fait de cette nouvelle plateforme un concurrent de poids dans le segment désormais très fourni des architectures scale-out hyperconvergées. De plus, nul doute que l’expertise acquise avec UCS et les nombreuses années au sein de la joint-venture VCE donne aussi beaucoup de crédit à ce produit désormais Full-Cisco.
Pour en savoir plus, consuiltez directement le site dédié et en particulier la plaquette, sous forme de PDF, ici.