Enfin ! Après plusieurs reports et beaucoup de retard en grande partie à cause ma charge de rentrrée, nous avons enfin réussi à monter notre PoC avec l’aide de Jérémie (Twitter : @J_brison). C’était l’occasion pour moi de découvrir l’installation et la philosophie Hyper-Convergée des produits de Nutanix. Je vous propose dans cette première partie, de revenir sur l’installation physique, logique, le paramétrage initial et enfin l’intégration à notre vCenter 6 de bac à sable.
Avant de rentrer dans le vif du sujet, je tiens à remercier comme il se doit James et Jémérie de la société Nutanix pour leur disponibilité et la fourniture du matériel de prêt. Certes, j’aurais pu démarrer ce PoC déjà cet été avec la fameuse Nutanix CE (community edition) disponible gratuitement pour évaluation, mais j’avais des soucis de compatibilité matérielle avec ce que j’avais sous la main. Dans la foulée et constatant mes difficultés, James, via twitter, a tout de suite réagi pour me proposer une appliance en dur. Jérémie a pris le relais en septembre pour assurer la prise en charge de ce PoC.
Après le déballage de rigueur, l’appliance se présente sous la forme d’un rack standard de type 2U dans lequel on trouve en façcade l’accès aux disques hotplug et derrière un ensemble de 4 noeuds composant la partie “compute”. La base hardware est une source SuperMicro, mais il existe aussi des appliances sur base Dell (avec un guichet unique chez Dell pour le soft Nutanix et le hard Dell). Chaque noeud dispose d’un accès direct non partagé à une partie des disques de façade. On constate d’ailleurs (voir photos) que le rack de disque est divisé en quatre groupes identiques (mixé SSD/S-ATA).
Une fois l’installation physique réalisée, l’initialisation réalisée par Jérémie a consisté à ré-imager l’appliance avec des hyperviseurs VMWare ESXi (elle est livrée de base avec l’hyperviseur “maison” Acropolis, dérivé du projet Open Source KVM, pour des questions de licences, essentiellement), puis de paramétrer les accès réseau. Par défaut, il vous faut 4 groupes de 3 IP minimum par noeud : une IP pour la gestion IPMI (style iDrac / iLO …), une IP pour l’accès à la console de l’hyperviseur lui-même et enfin, une IP pour la CVM, une machine virtuelle composant le noyau Nutanix embarqué sur chaque Noeud (acronyme de “Controler VM”).
Cette CVM s’occupe non seulement de la gestion des échanges avec les autres noeuds du cluster (bus de communication, stockage partagé etc. …) mais également de la mise à disposition du stockage “front-end”, via une boucle interne à l’hyperviseur sur un vSwitch non branché sur une carte physique. Ce stockage est connecté via du NFSv3. Plus exactement, si on regarde les spécifications de celle-ci, on se rend compte que la VM dispose d’un accès passthru à la carte SCSI pilotant directement les disques dédiés du noeud sur laquelle elle tourne. En substance, l’ESXi voit donc son stockage partagé à travers la VM qu’il exécute lui-même, astucieux :) . Attention, tout de même, ce que l’hyperviseur voit n’est PAS l’image des disques dont il dispose physiquement, mais une vision globale de l’ensemble du stockage des noeuds du cluster dont il fait partie. Pour ceux qui connaissent VSAN ou ScaleIO, on retrouve ici la notion de stockage partagé et dont la redondance est assurée par une réplication en “N” exemplaires de données à stocker. On le verra plus en détail dans une prochaine partie.
Une fois le paramétrage initial réalisé, on a quasiment fini. Il nous suffit de nous connecter au site web d’administration dont une instance est présente sur chaque noeud du cluster. Ce portail fait dès le premier contact une impression très forte de simplicité, à la fois en terme d’ergonomie et en terme de présentation : les divers sections (Home, Health, Storage etc. …) sont facile d’accès, claires et explicites. Il existe même un tuto dans la partie alertes qui vous présente via une simulation les divers points importants et la stratégie de diagnostic … et BIENSUR, ce portail est en full HTML, ben oui, on est en 2015 et le web 2.0 a déjà quelques années, non ? (vous le voyez le gros appel du pied vers un autre éditeur, là, ou pas ?).
La première chose à faire pour commencer réellement à utiliser notre nouveau cluster consiste à provisionner le stockage disponible. Nutanix présente deux concepts hiérarchiquement reliés : le pool et le container. Le pool est à rapprocher de la notion classique qu’on attribue souvent à un gros pool physique dans lequel on va venir puiser pour réellement instancier des volumes utilisateur. Nutanix recommande fortement la création d’un pool regroupant l’ensemble des ressources physiques présentes au sein du cluster, afin de maximiser l’efficacité et les performances dudit cluster. Une fois le pool créé, on va travailler sur des containers (que l’on pourra exploiter directement comme des datastores dans les hyperviseurs) : ce sont eux qui portent réellement toutes les capacités d’optimisation, de redondance et ce faisant, de qualité de service du stockage. On peut jouer sur le niveau de redondance des données (combien de fois un block va être répliqué au sein des noeuds), les algorithmes de déduplication et compression, inline ou background. Vous pouvez choisir, lors de la création du container de le connecter automatiquement à tous les ESXi ou pas, cela dépend bien entendu de l’usage que vous en aurez. Enfin, vous pouvez indiquez une liste de subnets ou IP externes qui pourront également monter ce container : pratique si vous souhaitez partager ponctuellement un volume Nutanix sur d’autres environnements. Malgré tout, réservez cette option uniquement à des fins de migration de VM, car tous les mécanismes de haute disponibilité gérées en interne dans le cluster Nutanix ne seront pas actifs sur ces liens.
Pour les besoins du PoC, Jérémie a eu la bonne idée, lors de la première configuration, de laisser un des 4 noeuds hors du cluster, afin de me montrer la méthode d’extension d’un cluster existant. L’opération est simplissime : vous allez dans la section “hardware” et vous cliquez sur “Expand cluster” : le portail va rechercher automatiquement tous les noeuds présents sur l’appliance et encore disponibles, mais aussi potentiellement sur le réseau d’administration dans son ensemble (découverte via broadcast IPv4, mais aussi autoconfig IPv6). Ainsi, l’extension via l’ajout de nouvelles appliances est quasiment aussi facile que celui d’un noeud seul.
Pour terminer, il ne nous reste plus qu’à intégrer nos quatre ESXi fraîchement configurés sur un vCenter. Après quatre opération “Add host” au sein d’un cluster VMWare préparé pour l’occasion, on obtient au bout de quelques minutes un ensemble prêt a être utilisé :
Et …. voila ! C’est terminé pour cette première partie. Je vous proposerai dans les jours qui viennent un ou deux billets complémentaires plus orientés sur l’utilisation et les résultat de ce PoC, pendant nos phases de maquettage et tests divers. On parlera aussi des choix technologiques de Nutanix comparés à certains autres concurrents plus ou moins directs comme Simplivity ou les appliances EVO:Rail.
Bonjour,
merci pour le retour, c’est le sujet à la mode ce moment mais peu de retour technique et pratique.
juste une question : comment on connecte 2 appliance ensemble?
Merci d’avance.
D’après ce que j’ai compris, “tout simplement”, vous connectez la nouvelle appliance en configurant des IPs d’admin dans le même vlan que la première, ensuite vous allez dans la section “hardware” et vous utilisez la fonction “expand”. Le cluster actuel va détecter automatiquement la seconde appliance et vous proposer de l’ajouter.
tout passe par le LAN en fait, il n’y a pas d’infra particulière?
Effectivement, c’est une des caractéristiques majeures de la solution Nutanix. D’ailleurs, j’en parlerai lors de mon prochain billet ;)
Nous utilisons un cluster Vmware 6 / Nutanix (4 noeuds) depuis un bon mois en production. Très intéressant et les performances sur le stockage sont vraiment là !