Je l’ai évoqué à plusieurs reprises dans certains billets de fond au sujet de nos choix d’infrastructures, nous essayons toujours de travailler en amont nos schémas directeurs stockage/virtualisation afin d’anticiper les budgets mais également tenter de mûrir au mieux les choix qui vont présider aux futurs investissements. Or, nous arrivons, d’ici la fin de l’année prochaine (c’est demain !) au terme d’un cycle de 5 ans pour en redémarrer un à partir de 2018 et pour les 5 années suivantes.

Nous sommes de plus confrontés à de nouvelles contraintes, principalement budgétaires, ce qui rend l’exercice de prévision et de choix encore plus important, voir crucial. Nous allons donc dérouler en 2017 un nouvel audit/schéma directeur autour de nos infrastructures de virtualisation et stockage. Malgré tout, je souhaitais partager (et discuter j’espère !) avec vous des options que j’entrevois déjà pour notre production et les changements de modèle associés.

Notre modèle est-il à revoir ?

Je vous l’avais présenté en 2014 (voir ce billet), notre modèle de stockage aujourd’hui est basé sur la notion de tiering correspondant à chaque niveau de qualité de service ou de type d’usage demandé par nos maîtrises d’ouvrage. Nous basons l’ensemble de nos propositions sur 3 niveau : le TIER1, fonctionnant sur XtremIO et assurant une QoS sans compromis, le TIER2, orienté “mid-range” et hébergé actuellement par nos bonnes vieilles VNX7500 et enfin le TIER3 présentant à la fois les fonctions de stockage/archivage en volume et l’hébergement de ressources en mode best-effort, basé sur Isilon.

Les prix du flash baissent !

Ce modèle reste encore parfaitement adapté à notre situation présente, mais l’arrivée en masse du flash à tous les étages des gammes constructeurs (il suffit de voir l’écart de prix plus que minime désormais de certaines baies full SSD par rapport à des baies hybride), il est vraisemblable que la frontière entre le TIER1 et le TIER2 soit beaucoup moins marquée d’ici un an. Cela pose la question du renouvellement de nos VNX : vers quoi aller pour disposer du meilleur compromis entre performances, capacité et prix ?

A cette question, il faut également rajouter que quasi tous nos workloads aujourd’hui sont virtualisés (et ceux qui ne le sont pas encore vont sans doute y passer en 2017). Cela permet d’envisager clairement deux options :
– Rester en mode “legacy” avec les serveurs de virtualisation + de nouvelles baies Full-Flash en back-end
– Passer en mode hyper-convergé en assurant une continuité minimale du legacy pour les environnements physiques

Pour faire ce choix, il faut également intégrer le surcoût, non négligeable aujourd’hui, d’une solution HCI livrée clef en main par rapport à un montage HCI “home made” à base de VSAN, par exemple (David, si me lis … tu sais de quoi je parle ^^). VxRail et Nutanix, pour ne parler que d’eux, offrent de belles solutions intégrées et faciles d’emploi, mais en contrepartie, font pas mal grossir la facture globale, quoi qu’on en dise, par rapport à un achat en mode Légo avec serveurs, licences VMware et un montage géré en interne (voire même sous-traité à un intégrateur pour la phase d’installation).

Enfin, il ne faut pas enterrer les architectures classiques si vite car leurs coûts actuels, attaquées qu’elle sont par les HCI depuis plusieurs années, sont de plus en plus agressifs et restent encore dans la course ! j’ai été moi-même extrêmement surpris après avoir reçu un devis en EMC Unity-F pour un workload spécifique ! J’imagine que c’est la même chose pour les autres constructeurs, HP et Netapp en tête.

Et les ressources NAS dans tout cela ?

Et, oui, quand on travaille sur l’intégration d’une solution HCI, on omet souvent de parler des autres types de ressources purement stockage qu’une entreprise héberge. Le NAS reste, quoi qu’on en dise, une ressource incontournable pour la plupart des productions informatiques. Bien sûr, le passage au collaboratif et la généralisation progressive des solutions full-cloud ont tendance à faire réduire l’empreinte des vieux “lecteurs réseau” contenant des données non structurées, mais on est loin de les avoir éradiqué.

Alors que faire ?

Même si notre choix n’est pas fait évidemment, pour l’instant, j’ai tendance à penser qu’il faut garder la tête froide par rapport à toutes ces options et se poser des questions autour du besoin réel de nos utilisateurs.

On le voit chez nous, du coté de la virtualisation TIER2, la courbe de croissance est en fait une droite relativement stable depuis des années (au alentour de 15% à 20% par an) et le taux de consolidation s’approche grandement des 100%. Il parait logique dans ces conditions de s’orienter, pour cette partie, vers de l’hyperconvergé (soit en bundle, soit en DIY). L’orientation full-flash du support de stockage associé me parait une évidence désormais, car il sera même possible de redescendre certains workloads actuellement en TIER1 vers le TIER2 une fois la migration terminée. On gagne sur les deux tableaux : on fait de la place sur le TIER1, très cher, et on conserve un niveau de service très élevé avec le full flash du nouveau TIER2.

Le TIER1 quant à lui, va rester pour les workloads “hors norme” ou nécessitant une qualité de service sans faille. Nous avons investit sur XtremIO il y a un peu plus de 2 ans maintenant et nous allons continuer à capitaliser dessus pour au moins les 3 à 4 prochaines années.

Sur le segment TIER2-NAS, nos utilisateurs en veulent toujours plus et ne tolèrent plus de saturation “plus ou moins régulière” des volumes. Certes les quotas peuvent nous aider à urbaniser un peu tout cela, mais dans l’ensemble, il n’est plus envisageable de les contraindre en matière de bureautique et de stockage “tout venant”. Nous avons essayé à trois reprise au cours des 6 dernières années, sans y parvenir. Dans ces conditions, la future solution NAS doit disposer d’une volumétrie globale, extensible de manière transparente et quasiment à l’infini (en tout cas pour le moment). Typiquement, une solution de type Isilon fait partie des options à étudier, malgré son coût élevé par rapport aux autres baies NAS plus classiques. D’autre part, la maturité de notre système budgétaire (un budget OPEX encore sous-dimensionné) combiné aux contraintes réglementaires de sécurité très fortes pour les données stockées nous interdit la consommation en mode cloud pour le moment.

Perspectives

En l’état, donc, il semble que la bonne solution pour le futur renouvellement partiel de nos infrastructures puisse se baser sur un gros environnement “TIER2 HCI” couplé à une solution NAS très souple, facilement extensible à chaud, dont la volumétrie globale est partagée par l’ensemble des ressources consommées et dont les limites en terme d’extension sont bien loin de nos échelles actuelles (encore le To chez nous ^^).

De votre coté, que pensez-vous de cette orientation, ces directions vous semblent-elles pertinentes ?

Merci pour vos retour !