Cluster d’admin VMware : EMC VxRAIL

Plus de deux mois d’échanges, tractations, devis divers et présentation des SWOT avec notre direction pour ce projet de cluster d’administration dédié dont je vous ai parlé il y a quelques semaines déjà (voir ce billet) ! Mais, cela en valait la peine : la dernière ligne droite a opposé notre choix initial, à savoir un cluster VSAN “Do-it-yourself” constitué de deux grosses machines x86 (cluster VSAN 2 Noeuds+Witness), au nouveau champion “pure VMware” présenté par EMC en Mars dernier, j’ai nommé VxRAIL (voir ce billet).

Voici un petit relevé de nos conclusions et des arguments qui nous ont fait pencher, finalement, vers VxRAIL.

Au départ, ce projet se voulait avant tout un moyen d’améliorer nos processus de résolution d’incidents majeurs et de coller encore plus aux best-practices des productions de notre dimension (plus de 1250 VMs à l’heure où je vous parle). Mais grâce aux échanges avec nos partenaires constructeurs et intégrateurs, il a progressivement changé de dimension. En effet, étant donné qu’il n’y avait aucun enjeu applicatif ou métier derrière cette acquisition, j’ai pensé qu’il serait intéressant d’en profiter pour tester/évaluer des technologies qui pourraient être employée plus massivement pour renouveler une grosse partie de notre production généraliste d’ici 2 ans.

Vous le savez sans doute si vous me suivez régulièrement, j’ai toujours eu une approche assez critique vis à vis de l’emballement marketing du “tout hyper-convergé”. Pour autant, dans l’IT en particulier, il faut se méfier comme la peste des idées préconçues et des jugements “sans savoir”. Rien ne vaut une expérience de terrain pour vraiment juger de la maturité, l’utilité et la pérennité d’une solution… DONC, plus encore que VSAN, ce chantier purement technique était aussi l’occasion rêvée pour vraiment utiliser l’hyper-convergé sur son terrain de prédilection : le workload autonome avec des spécifications initiales bien définies, tant en terme de compute qu’en terme de volumétrie.

C’est à ce moment qu’est rentré en lice EMC VxRAIL : une solution qui avait, sur le papier, tous les avantages présentés plus haut : une pile software VMware only avec VSAN en son coeur doublé d’une approche hyper-convergée dans son dimensionnement et le support intégré. Il restait donc juste à valider cela avec notre hiérarchie (budgétairement parlant, notamment) à la lumière des nouveaux enjeux. Ce fut relativement long mais au final, comme souvent, notre direction nous a suivi (encore une fois, un grand merci à eux).

Un autre paramètre très important qui a contribué à choisir la solution intégrée d’EMC c’est le temps : comme vous le savez tous, une infrastructure VMware à monter soit-même, c’est très enrichissant et intéressant, mais c’est relativement long (toutes proportions gardées) … surtout lorsque l’on doit de plus documenter tout cela et fournir les procédures d’exploitation associées. De ce coté, la solution hyper-convergé apporte une efficacité imparable : des 10/12 JH prévus initialement pour le chantier, on est mécaniquement tombé à 2, 3 maximum. Lorsque, comme chez nous, la moindre heure est précieuse, les bénéfices d’une architecture clef en main sont indéniables, ce d’autant plus que ce projet n’a strictement aucune dimension “delivery” vis à vis de nos utilisateurs (pas directement en tout cas).

C’est donc fait !

Nous attendons maintenant un ensemble VxRAIL 120 constitué de 2 appliances et un total de 6 noeuds VxRAIL 120. Notre objectif initial étant d’équilibrer la puissance sur nos deux salles, nous avons demandé (et obtenu) d’EMC que les spécifications des deux appliances soient équivalentes. En effet, pour l’instant, EMC net propose pas encore officiellement de configurations inférieures à 4 noeuds (une appliance full en somme). Ce sera donc l’occasion aussi pour eux de valider leurs process d’installation sur une configuration “stretched” de deux fois 3 Noeuds.

Pour terminer, je tiens à remercier tous les interlocuteurs avec qui j’ai travaillé durant plus de 2 mois sur ce projet et plus particulièrement, dans le désordre : David, Odile, Pascal et Benoit. Un grand merci aussi à ceux que nous n’avons finalement pas retenu, même si leurs propositions étaient dans l’ensemble très pertinentes.

Mise en production prévue cet été, tranquillement :)

7 thoughts on “Cluster d’admin VMware : EMC VxRAIL

  1. Gilles says:

    Salut Cédric je suivrai l’avancement de ce projet avec attention étant donné que j’envisage un peu la même démarche.
    Niveau budget comment tu te situe par rapport à une solution serveur tradi, la solution vsan peut être intéréssante mais il me semblait que tu étais déjà bien équipé.

    Pour moi qu’ils ne proposent pas 3 noeuds était un point négatifs ( HP et leur solution CS bidule le permettait)… Ca m’interesse en mp si tu peux me donner un ordre d’idée du prix d’une 3 noeuds ;)

  2. Cédric Cédric says:

    Compliqué de fournir des données financières publiquement pour cette opération. On en recause par mail si le souhaite. Contacte-moi directement :)

  3. Jean-marc pigeon says:

    Bonjour,
    Merci pour vos informations. Aviez vous évalué la solution Nutanix? Je suis en train de d’evalué vxrail vs nutanix (esxi). Auriez vous des appréciations.

    • Cédric Cédric says:

      Oui, j’avais récupéré un PoC il y a environ un an (fin d’année dernière). C’était bien, mais relativement cher et difficile à acheter chez nous à l’époque (marché publics).

      • Jean-marc pigeon says:

        Quel serait votre préférence si vous aviez le budget? Resterait t’il vxrail ou alors Nutanix?

      • Cédric Cédric says:

        Tout dépend de l’usage. Personnellement, j’ai tendance à privilégier la simplicité “du support” et une certaine forme d’élégance (c’est très subjectif). En cela, VSAN est particulièrement intéressant : intégré au kernel ESXi, même support, même contrat de licences etc. … maintenant, Nutanix offre des bundles qui peuvent faire sens, notamment avec leur nouveau produit d’appel Nutanix Xpress (voir ce billet : https://vblog.io/nutanix-xpress-une-gamme-faite-pour-les-pme/ )

        Donc, à voir en fonction du workload à faire tourner :)

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *