Rappelez-vous, il y a quelques mois, je vous avais proposé une série d’articles et une vidéo pour découvrir la plupart des aspects techniques liés à ScaleIO, depuis l’installation jusqu’à l’intégration avec VMWare et le provisionning. Aujourd’hui EMC annonce ScaleIO 2.0, une nouvelle version majeure qui améliore la déjà excellente solution full SDS d’EMC. Cette nouvelle itération met l’accent sur 3 axes principaux : des amélioration importantes en matière de sécurité, des améliorations au niveau de la résilience globale des clusters et l’élargissement des systèmes et solutions supportées. Du coté du stockage pur, un peu de déception de mon coté, malgré tout, car toujours pas de dé-duplication ni compression.
Mais voyons ça d’un peu plus près !
Coté sécurité, cette nouvelle version apporte les éléments suivants :
– Le support d’IPv6 à tous les étages, autant coté back-end que coté front-end.
– La mise en place d’un composant spécifique assurant une authentification plus forte des différents noeuds d’un cluster. En effet, si vous vous rappelez mes présentations, il était simplissime d’ajouter un SDS ou un SDC à un cluster, sans utiliser de mécanisme spécifique d’authentification (une déclaration suffisait). Cela pouvait ouvrir la voie à des intrusions si le SDS n’était pas suffisamment isolé au niveau réseau. Désormais, les mécanismes sont là, je vous en dirai plus dès mes premiers tests.
– De la même manière, ScaleIO 2.0 améliore la sécurité des communications entre les modules de gestion (GUI, MDM, CLI et Gateway). SSL a été généralisé, en somme. Comme l’indique Chad Sakac dans son article, le chiffrement des flux de données n’est pas encore pour tout de suite, mais dors et déjà dans les tuyaux pour une prochaine release.
Au niveau résilience, là aussi, beaucoup d’évolution, jugez plutôt :
– Les données envoyées par les clients SDS sont désormais vérifiées avant leur envoi, puis re-validées à l’arrivée avant d’être écrites. La encore, comme l’indique Chad, on contrôle l’intégrité des données tout le long de la chaîne de liaison, depuis le client jusqu’à l’écriture sur disque.
– Vous avez désormais la possibilité de placer un cluster ScaleIO dans un mode dit “de maintenance”, cela permet d’éviter une reconstruction complète si vous procédez à des reboot ou mises à jour quelconques d’un noeud, par exemple. En effet, par défaut, dès la perte d’un des noeuds d’un cluster, l’ensemble de la grille reconstruit automatiquement le niveau de protection, au plus vite. Or, cette reconstruction a forcément un impact, même minime, sur les performances globales.
– Corrélé à la nouvelle fonction de maintenance, vous pouvez également, demander explicitement une reconstruction pro-active, si votre plage de maintenance devait s’accroitre en raison de difficultés particulières, par exemple.
– Vous pouvez désormais inclure pas moins de 5 instances MDM (les serveurs de metadata, un composant critique du cluster, qui contient l’ensemble de la cartographie des donnée d’un grid ScaleIO) constitué de 3 noeuds MDM et 2 tier-breaker (des witness). Auparavant, on était limité à 3 seulement : deux noeuds MDM et un tier-breaker.
– Intégration de ScaleIO à eSRS, le système de supervision à distance d’EMC, afin de rejoindre le reste de la gamme plus classique.
– Enfin, la mise à jour entre ScaleIO 1.32 et 2.0 est non-disruptive, bonne nouvelle (pour ceux qui ont connu une certaine migration XtremIO 2.0 vers 3.0 … ils seront sans doute soulagés de voir que ce n’était qu’un “accident” de parcours d’EMC ;) ).
Enfin, au niveau du support de nouvelles plateformes “clientes” :
– L’interface de gestion de ScaleIO 2.0 a été grandement revue pour pouvoir réaliser des opérations de gestion des clients et des volumes, qui n’étaient jusqu’alors possible qu’en mode CLI. Je vous ferai un retour de ces amélioration dès que possible.
– ScaleIO commence à prendre en charge les plateformes orientés container, Docker en tête avec CoreOS et bientôt VMWare Photon. Forcément, ça parait évident aujourd’hui, mais un SDS comme ScaleIO se devait de rentrer sur ce segment en pleine explosion, c’est donc officiel, mais il vous faudra tout de même une RPQ pour le moment (une demande officielle de prise en charge par le support EMC).
– La prise en charge de Linux Ubuntu 14.04LTS (bon … dubitatif, vu le peu de pénétration professionnelle actuelle d’Ubuntu, mais tans mieux ^^).
– ScaleIO propose désormais un driver Cinder pour intégrer nativement OpenStack. La aussi, c’était attendu et souhaité par beaucoup.
Il ne me reste plus qu’à reprendre mon baton de pelerin, remonter mon cluster ScaleIO dans mon vLab et l’upgrader !
Pour télécharger les distributions ScaleIO 2.0, rendez-vous ici.
Cert article est très largement inspiré par le billet de Chad Sakac, à retrouver ici.
Bonjour Cédric, juste une petite précision, ce n’est pas 2 MDM et 1TB que supportait ScaleIO 1.3x mais 2 MDM actifs + 1TB actif et jusque 5 MDM/TB en stand-by (synchro mais non utilisé et c’est en réalité les IPs qui comptent, 8 au total max par SDC vers les MDM/TB). C’est dans une petite doc à part et pas très mis en avant mais cela fonctionnait pas mal pour avoir testé cette architecture avec un MDM/TB en plus (la doc : docu56714_Automatic-MDM-Cluster-Node-Replacement-Technical-Note).
Donc, on passerait de 2 MDM actifs + 1 TB actif à 3 MDM actifs + 2 TB actifs c’est bien ça ? Si tu me confirmes ça, je modifie le billet en conséquence.
Merci !
En fait, c’est du spare mais synchro. Seuls 1tb et 2mdm sont utilisés et actifs mais si un des trois tombe, un spare prend automatiquement sa place (ils sont présentés aux sdc mais seulement activés en cas de défaillance d’un actif et peuvent devenir mdm ou TB)
La doc reste dans le style EMC, quelques ombres qui subsistent mais c’est que j’en ai compris et constaté même si je n’ai pu pousser trop loin (le meilleur amis de l’admin, le manque de temps ;) )
Très intéressante ton analyse, car je n’avais pas compris cela au sujet des tie-breaker … Bon, t’asson, la 2.0 apporte en gros plus de sécu sur le MDM pour des très gros clusters, c’est ce qu’il faut retenir. Je vais modifier le billet en ce moment.
Merci encore pour les éclaircissements :)