Futur quinquennat pour notre production, parlons d’avenir !

Je l’ai évoqué à plusieurs reprises dans certains billets de fond au sujet de nos choix d’infrastructures, nous essayons toujours de travailler en amont nos schémas directeurs stockage/virtualisation afin d’anticiper les budgets mais également tenter de mûrir au mieux les choix qui vont présider aux futurs investissements. Or, nous arrivons, d’ici la fin de l’année prochaine (c’est demain !) au terme d’un cycle de 5 ans pour en redémarrer un à partir de 2018 et pour les 5 années suivantes.

Nous sommes de plus confrontés à de nouvelles contraintes, principalement budgétaires, ce qui rend l’exercice de prévision et de choix encore plus important, voir crucial. Nous allons donc dérouler en 2017 un nouvel audit/schéma directeur autour de nos infrastructures de virtualisation et stockage. Malgré tout, je souhaitais partager (et discuter j’espère !) avec vous des options que j’entrevois déjà pour notre production et les changements de modèle associés.

Notre modèle est-il à revoir ?

Je vous l’avais présenté en 2014 (voir ce billet), notre modèle de stockage aujourd’hui est basé sur la notion de tiering correspondant à chaque niveau de qualité de service ou de type d’usage demandé par nos maîtrises d’ouvrage. Nous basons l’ensemble de nos propositions sur 3 niveau : le TIER1, fonctionnant sur XtremIO et assurant une QoS sans compromis, le TIER2, orienté “mid-range” et hébergé actuellement par nos bonnes vieilles VNX7500 et enfin le TIER3 présentant à la fois les fonctions de stockage/archivage en volume et l’hébergement de ressources en mode best-effort, basé sur Isilon.

Les prix du flash baissent !

Ce modèle reste encore parfaitement adapté à notre situation présente, mais l’arrivée en masse du flash à tous les étages des gammes constructeurs (il suffit de voir l’écart de prix plus que minime désormais de certaines baies full SSD par rapport à des baies hybride), il est vraisemblable que la frontière entre le TIER1 et le TIER2 soit beaucoup moins marquée d’ici un an. Cela pose la question du renouvellement de nos VNX : vers quoi aller pour disposer du meilleur compromis entre performances, capacité et prix ?

A cette question, il faut également rajouter que quasi tous nos workloads aujourd’hui sont virtualisés (et ceux qui ne le sont pas encore vont sans doute y passer en 2017). Cela permet d’envisager clairement deux options :
– Rester en mode “legacy” avec les serveurs de virtualisation + de nouvelles baies Full-Flash en back-end
– Passer en mode hyper-convergé en assurant une continuité minimale du legacy pour les environnements physiques

Pour faire ce choix, il faut également intégrer le surcoût, non négligeable aujourd’hui, d’une solution HCI livrée clef en main par rapport à un montage HCI “home made” à base de VSAN, par exemple (David, si me lis … tu sais de quoi je parle ^^). VxRail et Nutanix, pour ne parler que d’eux, offrent de belles solutions intégrées et faciles d’emploi, mais en contrepartie, font pas mal grossir la facture globale, quoi qu’on en dise, par rapport à un achat en mode Légo avec serveurs, licences VMware et un montage géré en interne (voire même sous-traité à un intégrateur pour la phase d’installation).

Enfin, il ne faut pas enterrer les architectures classiques si vite car leurs coûts actuels, attaquées qu’elle sont par les HCI depuis plusieurs années, sont de plus en plus agressifs et restent encore dans la course ! j’ai été moi-même extrêmement surpris après avoir reçu un devis en EMC Unity-F pour un workload spécifique ! J’imagine que c’est la même chose pour les autres constructeurs, HP et Netapp en tête.

Et les ressources NAS dans tout cela ?

Et, oui, quand on travaille sur l’intégration d’une solution HCI, on omet souvent de parler des autres types de ressources purement stockage qu’une entreprise héberge. Le NAS reste, quoi qu’on en dise, une ressource incontournable pour la plupart des productions informatiques. Bien sûr, le passage au collaboratif et la généralisation progressive des solutions full-cloud ont tendance à faire réduire l’empreinte des vieux “lecteurs réseau” contenant des données non structurées, mais on est loin de les avoir éradiqué.

Alors que faire ?

Même si notre choix n’est pas fait évidemment, pour l’instant, j’ai tendance à penser qu’il faut garder la tête froide par rapport à toutes ces options et se poser des questions autour du besoin réel de nos utilisateurs.

On le voit chez nous, du coté de la virtualisation TIER2, la courbe de croissance est en fait une droite relativement stable depuis des années (au alentour de 15% à 20% par an) et le taux de consolidation s’approche grandement des 100%. Il parait logique dans ces conditions de s’orienter, pour cette partie, vers de l’hyperconvergé (soit en bundle, soit en DIY). L’orientation full-flash du support de stockage associé me parait une évidence désormais, car il sera même possible de redescendre certains workloads actuellement en TIER1 vers le TIER2 une fois la migration terminée. On gagne sur les deux tableaux : on fait de la place sur le TIER1, très cher, et on conserve un niveau de service très élevé avec le full flash du nouveau TIER2.

Le TIER1 quant à lui, va rester pour les workloads “hors norme” ou nécessitant une qualité de service sans faille. Nous avons investit sur XtremIO il y a un peu plus de 2 ans maintenant et nous allons continuer à capitaliser dessus pour au moins les 3 à 4 prochaines années.

Sur le segment TIER2-NAS, nos utilisateurs en veulent toujours plus et ne tolèrent plus de saturation “plus ou moins régulière” des volumes. Certes les quotas peuvent nous aider à urbaniser un peu tout cela, mais dans l’ensemble, il n’est plus envisageable de les contraindre en matière de bureautique et de stockage “tout venant”. Nous avons essayé à trois reprise au cours des 6 dernières années, sans y parvenir. Dans ces conditions, la future solution NAS doit disposer d’une volumétrie globale, extensible de manière transparente et quasiment à l’infini (en tout cas pour le moment). Typiquement, une solution de type Isilon fait partie des options à étudier, malgré son coût élevé par rapport aux autres baies NAS plus classiques. D’autre part, la maturité de notre système budgétaire (un budget OPEX encore sous-dimensionné) combiné aux contraintes réglementaires de sécurité très fortes pour les données stockées nous interdit la consommation en mode cloud pour le moment.

Perspectives

En l’état, donc, il semble que la bonne solution pour le futur renouvellement partiel de nos infrastructures puisse se baser sur un gros environnement “TIER2 HCI” couplé à une solution NAS très souple, facilement extensible à chaud, dont la volumétrie globale est partagée par l’ensemble des ressources consommées et dont les limites en terme d’extension sont bien loin de nos échelles actuelles (encore le To chez nous ^^).

De votre coté, que pensez-vous de cette orientation, ces directions vous semblent-elles pertinentes ?

Merci pour vos retour !

9 thoughts on “Futur quinquennat pour notre production, parlons d’avenir !

  1. jihefge says:

    Je suis d’accord avec toi sur pas mal de points (le coût non négligeable du passage en HC, les évolutions du stockage à venir, ….).
    Mais le souci que j’ai de mon côté, c’est le cadre contractuel pour faire mes achats. Je suis dépendant d’un marché public sur lequel je n’ai pas la main. Et donc, si je fais le choix d’une solution HC, je ne pourrai peut-être pas l’upgrader dans deux ans si j’ai besoin, parce qu’elle ne sera tout simplement plus au catalogue. Dans ces conditions, on a fait le choix de faire du bon vieux legacy, quitte à changer de marque de serveurs (et de stockage) si on n’a pas le choix……

  2. C’est une très bonne réflexion, je penses que beaucoup de structures types CHU sont entrain de se poser ces questions. De notre côté CHU de Nîmes. Nous avons renouvelé notre Tier1 l’année dernière et choisis XtremIO, nous avons renouvelé notre TIER2-NAS sur ISILON et il reste notre “Tier2-Prod” ou stockage de production environnements virtualisés basé sur de la VNX 5500+ tiering. Tiers2 que nous allons renouvelé au premier trimestre 2017. Nous sommes en phases d’études 3 solutions vont être “short listées” VSAN, et 2 gros constructeurs de stockage. (Hitachi et EMC pour ne pas les citer…) Pendant la phase d’études a chaque rencontre avec les constructeurs nous sommes allés les chercher sur un sujet qu’aucun n’avait anticipé, VVOL ==> grosse déception chez nous suite au premières présentation aucun constructeur n’en à parlé. Suite à des sessions de rattrapage, seul Hitachi pour le moment à été convaincant sur le sujet. Pour nous c’est clairement un point différenciateur et sur lequel nous souhaitons miser compte tenu des évolutions de stockage des évolutions des DSI et des méthodes d’exploitations. (Toujours plus de STO toujours moins d’admins) Ce que l’on souhaite en partant sur du VVOL c’est faciliter l’administration et le pro-visionnement,; gagner en souplesse et en réactivité, améliorer les perf backup.

    Mon avis personnel : pour du full environnement virtualisé d’après moi il faut partir sur du HC et oublier le Legacy. Et si vraiment le choix du legacy est fait alors prendre le constructeur qui à la meilleure intégration VVOL.

    Pour répondre à jihefge : Nous sommes aussi dépendant des marchés public, mais tu peux très bien acheter du serveur chez DELL ou autres constructeurs sur un marché quelconque des serveurs qui seront certifiés “VSAN ready”.
    Et ensuite acheter de la licence vmware ailleurs. Et prendre un intégrateur à côté…
    Je ne vois pas en quoi les marchés public sont bloquant à l’acquisition d’une solution HC, enfin en tous cas VSAN.

  3. Cédric Cédric says:

    Bonjour à tous, les deux, effectivement, je rejoins Cyril sur la partie marchés public. En tout cas, personnellement, je veux toujours le meilleur pour notre institution, je prendrais jamais la décision d’acheter une solution si je ne suis pas convaincu de la technologie, vue les investissements financiers. Au pire il y a l’UGAP ;)

    Je suis aussi très déçu du peu d’attention accordé à VVOL, mais je pense que cette techno est arrivée trop tard : le HCI avait déjà pris son envol. On aurait eu du VVOL 2/3 ans avant vers 2010, c’était encore jouable, mais maintenant … Pourtant, j’ai adoré à l’époque ou je l’ai découvert (voir mon billet dithyrambique à l’époque https://vblog.io/vvol-une-nouvelle-approche-pour-le-stockage-des-vm/ ).

  4. Tuxi says:

    l’UGAP…pour avoir un devis 4mois après la demande… ;)
    Comme Cyril, je pense que VMware+legacy => VVOL. La version 2 permet maintenant la réplication (gros manque de la v1 à mon sens).
    Il est étonnant que EMC n’en parle pas plus alors qu’ils ont mis cette techno en avant avec la gamme EMC Unity.

    Pour la partie HC, je m’interroge sur l’utilisation de ScaleIO à la place de VSAN.
    ScaleIO offre l’avantage de ne pas être limité à VMware et permet de gérer différents TIER. Avoir des disques capacitifs pour le TIER3 et SSD pour le TIER1/2. Le tout depuis une seul “console”.

    Le point “bloquant” (chez nous) sur le choix d’un SDS est financier. Les budgets en investissement sont importants contrairement au budgets en fonctionnement (licences, supports,..).

  5. Pierre says:

    Pour la réponse à la problématique générale qui consiste à toujours faire plus avec moins de personne est beaucoup à chercher du coté de ViPR que de VVOLs, dont en fait je ne comprends pas l’apport, sans parler des doutes qui continuent de planer 3 ans aprés l’annonce de Vmware. Pour moi, VVOL est une solution en attente d’un problème (voire mort-néé). Quand on voit ce que fait Tintri sur ce créneau, VVOL parait bien pâle…

    Ayant également ici beaucoup de croissance sur les environnements mid-range (le high allant sur ExtremIO) je crois aussi beaucoup à Isilon en remplacement de nos VNX vieillissantes….

    • Tuxi says:

      De mémoire, tintri a été créé par l’un des ingénieurs de VVOL.
      L’apport, c’est la non gestion des volumes sur VMware. Pas de LUN,… On créé des conteneurs sur la baies et on peut déployer des VM sur ces derniers.
      Autre avantage, pas de prise de tête sur la taille du volume, nb de VM/volume,…
      On gagne de fait sur la gestion et les perf (lun queue,…).

      Pour ScaleIO, entièrement d’accord, le prix au To est totalement bloquant, mais le produit reste super intéressant.

      • Pierre says:

        Le gain sur les performances reste à voir… On ne gère plus les volumes dans Vmware et on pousse la complexité vers la baie de stockage qui se retrouve à gérer des centaines voire des milliers d’object à la place de la plateforme de virtualisation.
        Autant dire que je reste fortement sceptique d’un quelconque apport ou que ce soit.
        L’enthousiasme modéré des constructeurs et le déploiement quasi inexistant de cette technologie m’incite à penser que je ne suis pas le seul à avoir ce point de vue ;-)

        Je crois bcp plus dans l’apport de l’automatisation interne (SPBM) ou externe (Vipr) et/ou l’hyperconvergé quand il aura réglé son problème de prix déconnant.

  6. jihefge says:

    Mais moi aussi, je veux le meilleur…..
    Mais j’ai aussi des problèmes de budget, j’ai aussi un certain manque de personnel, et je ne peux pas commander sur l’ugap (cherchez pas, c’est complexe).
    Concernant ScaleIO, j’ai fait l’essai. C’est hyper charmant, ça marche du feu de Dieu, les perfs sont très bonnes, c’est très simple à administrer et….. c’est très cher…… donc ça passera pas chez nous.
    Reste effectivement à essayer vSan…… prochainement sans doute……

  7. Cédric Cédric says:

    Comme toujours, le plus dur c’est de convaincre la direction qu’un bon inverstissement, certes plus cher, n’est pas forcément un mauvais calcul, notamment au niveau ROI… c’est notre croix :)

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *