PoC XtremIO : déballage, mise en route et premiers tests !

MAJ du 12/06/2014 : correction du type de SSD exploité par XtremIO, eMLC et non SLC comme indiqué initialement

Article modifié :

Photo-2014-06-10-11-20-16_5422Comme convenu, l’installation de la baie de test XtremIO a eu lieu ce Mardi avec l’aide d’EMC et d’APX (venu en curieux :) ). Tout s’est très bien passé, sans accroc ni difficulté particulières. Voici un compte rendu de notre découverte de ce potentiel nouveau composant d’infrastructure de stockage.

Mise en place hardware et “power-on”

Techniquement, la “baie” se présente sous la forme d’un d’ensemble de composants représentant 6U au total :
– Deux onduleurs 1U (comme les SPS de nos VNX)
– Deux controleurs 1U (des serveurs x86 sous CentOS ! … et sans doute le hardware qui va avec, bien évidemment :) )
– Un rack “type DAE” contenant 25 disques SSD eMLC de 800 Go chacun, soit environ 20 Tb brut (14,9 To utilisables)

Après connexions FibreChannel, Electricité et Ethernet, le Xbrick est très simple à préparer : un paramétrage IP pour les deux contrôleurs et une vérification sommaire du bon fonctionnement des composants. Nous pouvons, après une petite demi-heure, quitter, sans regret, la salle informatique pour des bureaux plus confortables et moins bruyants ;)

Photo-2014-06-10-10-44-04_5415Photo-2014-06-10-10-44-22_5416Photo-2014-06-10-10-50-38_5417Photo-2014-06-10-11-05-42_5420Photo-2014-06-10-10-43-31_5414

Configuration initiale

Chose assez nouvelle chez EMC, XtermIO est piloté par une console déportée, livrée sous la forme d’une appliance virtuelle au format OVA. Une fois la VM préparée (petite empreinte : 2 vCPUs, 4 Go de RAM, 80 Go de disques, CentOS) et quelques menus de paramétrage initial déroulées, nous avons procédé à la “Fresh Install” de la XBrick. La version du firmware est celle actuellement en GA chez EMC : 2.4.0-25. Nous avons demandé de passer sur le prochain firmware actuellement en phase de test (qui gère notamment la compression inline), mais pas de retour d’EMC pour le moment. Globalement il faut compter environ 2 heures pour l’installation logique (OVA, paramétrage, création du cluster).

Une fois la machine installée, on passe à l’intégration de celle-ci à notre réseau SAN (Connexion, Zoning) puis configuration à travers notre VPlex et présentation de quelques LUNs sur notre environnement de test virtualisé (environ 300 VMs actuellement pour 25 To utilisés sur VNX).

Première prise en main des interfaces d’administration

Il existe 3 méthodes pour pouvoir piloter et administrer les XBricks XtremIO :
– Une interface cli donc l’accès est disponible via SSH
– Une API de type “REST”
– Une interface web de type Java “Web start” : l’accès à l’url d’admin déclenche le telechargement d’une applet autonome pour l’administration directe des storage controlers d’XtremIO

La console web est relative simple, voir simpliste, mais adopte une approche claire avec plusieurs sections dédiées aux différentes tâches d’administration. La supervision temps réelle est particulièrement agréable et réactive (on aimerait avoir cela sur nos VNX !!). Vous pouvez en particulier suivre l’activité I/O, bande passante et latence directement. Coté configuration, là aussi, pas de chichi mais efficacité pour mettre en relation vos initiateurs avec les volumes provisionnés.

xio4xio5xio6

Je n’ai encore eu le temps de parcourir l’interface d’admin en mode CLI, mais d’après les quelques commandes que nous avons passé pour vérifier l’installation initiale, il semble qu’elle soit relativement simple à appréhender (la syntaxe des commande visiblement très explicite). Je vous ferai un retour plus complet après quelques jours.

Enfin, pour l’API REST, pour l’instant, pas de plan prévu pour la tester, mais d’après les documentations fournies par EMC, elle donne accès à l’essentiel des fonctions de la baie (supervision ET administration/gestion).

Tests de charge

Enfin, vient le moment des tests de montée en charge. J’ai choisi, évidemment oserais-je dire, des sessions de storage vmotion entre les volumes XtremIO et notre VNX de test puis entre les volumes XtremIO eux-même. Le moins que l’on puisse dire c’est que ça décoiffe, mais bon, je n’avais pas d’inquiétude à ce sujet ;)

Voici quelques copies d’écran qui vous donne une idée des perfs constatées (je vous rappelle que nous travaillons sur notre environnement de test) :

xio1xio2xio3

En fait, on se rend compte assez vite que le facteur limitant se situe désormais au niveau du serveur ESXi, et plus du tout au niveau de la la baie. Au passage, le VPlex semble ENFIN s’épanouir avec cette baie, les CPUs des directeurs montent enfin dans les tours (35/40/45 % par moment, au lieu de notre “anémique” 20 à 25% au quotiiden ;) ). Plus généralement, c’est l’ensemble de la chaine de liaison entre la VM et son stockage qui semble enfin être libérée par cette débauche de puissance.

Conclusion

D’une manière générale, la mise en place d’XtremIO s’est très bien déroulée et les premiers benchs sont plus que satisfaisants !

Nous allons poursuivre nos tests de manière plus itérative et structurée dans les jours qui viennent. Notamment, nous allons bien entendu surveiller de près le ratio de dé-duplication qui s’établit actuellement à 2:1 avec un peu plus d’un To de VMs hébergées. Il est clair que ce ratio va sans doute s’améliorer à mesure que nous rempliront la baie.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *