C’est quand même fou comme le temps passe vite ! Il y a déjà 4 ans et demi, nous entamions un schéma directeur “Sauvegarde” (voir ici) qui allait au nous conduire vers la solution Avamar-Datadomain (voir ici). Depuis, celle-ci a accompagné avec succès notre explosion en matière de production, passant d’environ 1000 VMs à quasi 2000 aujourd’hui. Il est temps maintenant de faire le bilan de ces 4 années de production backup/resto et de se projeter, d’ici l’année prochaine, avec cette fois-ci l’aide et la prise en compte de nos collègues du Groupement Hospitalier de Territoire.
Nous sommes aussi face de nouveaux enjeux, tant en terme d’hébergement virtualisé qu’en terme de complexité réseau et de volume. De plus, notre infrastructure de backup a évolué au cours des années (plusieurs shelves achetés sur nos Datadomain, en moyenne un par an et par site) mais on commence à voir approcher ses limites techniques. Ne nous cachons pas, sa relative lourdeur en terme d’exploitation, malgré de bons et loyaux services, nous oblige au moins à envisager d’autres type de solutions encore plus intégrées et/ou plus souples. Cela n’enlève rien malgré tout à l’impérieuse nécessité de consacrer du temps au quotidien à entretenir tout système de sauvegarde (ne serait-ce qu’en restaurant régulièrement ^^).
Alors, qu’avons nous aujourd’hui sur le marché ? En fait, beaucoup de choses : avec l’arrivée cette année de Dell EMC IDPA, la percée remarquée depuis quelques temps déjà de Cohesity et Rubrik et enfin – the last but not the least – le ténor Veeam qui continue à tenir le flambeau et se bonifier comme le bon vin, le choix est vaste. Si on rajoute à cela les outsiders dont j’ai déjà parlé comme Nakivo ou Vembu, la coupe est quasi pleine !
Derrière ces diverses solutions se cache aussi des orientations et des cibles différentes. La plupart sont capable d’adresser quasi tous les marchés aujourd’hui mais le fait est que leur positionnement marketing et leurs fonctionnalités peuvent nous aider à les départager (sans même parler de leur coût et de la façon de les acheter dans les marchés publics). Nous allons donc durant les mois qui viennent, recevoir la plupart d’entre eux, réaliser des PoC et pilotes représentatifs pour, en fin d’année, envisager sérieusement notre nouveau système de sauvegarde “GHT”. Comme je ne suis pas seul heureusement, cette fois-ci encore, je me ferai le porte parole de plusieurs personnes qui travaillerons ensemble à confronter et comparer les produit. Ceci est d’autant plus important que notre établissement ne sera très vraisemblablement pas le premier à acquérir le gagnant ! C’est une solution départementale que nous allons devoir construire.
Que de choses intéressantes à venir, j’en salive déjà, geek un jour, geek toujours vous savez bien ^^
A très vite !
4.5
Bonjour,
Pas de solution de type legacy comme NetBackup, NetWorker ou Commvault (Hyperscale) ?
Cordialement,
De mon point de vue, il faut avoir une masse critique de workload “legacy” pour qu’une option traditionnelle de backup soit pertinente. Or, aujourd’hui, notre objectif c’est full virtualisation, c’est sans doute plus adapté de prendre du pure player. Encore une fois c’est un parti pris et surtout s’il faut continuer en legacy, autant continuer avec du Avamar/Datadomain, connu et parfaitement maîtrisé chez nous.
Pas faux, mais les “anciens” ne sont pas forcément les moins pertinents en terme de coûts.
Et sont aussi “parfois|souvent” plus évolutifs que les niches players.
Arg J’ai twitté avant de voir les commentaires.
Je suis d’accord avec Fabrice.
Je ne suis peut-être pas très objectif mais j’aurais fait le même remarque il y a un an avant d’intégrer un éditeur de backup historique.
Tous les acteurs sérieux on fait un focus sur la sauvegarde des environnements de virtualisation, puisque de loin le sujet le plus important pour nos clients. Chacun l’a fait à sa manière, les ‘historiques’ ne sont pas en reste et l’ont fait avec leurs arguments (eux aussi) historiques : robustesse, connaissance des attentes et contraintes clients. Et leur R&D n’est pas là plus mauvaise pour intégrer ces nouveaux workloads.
Les ignorer me semble étonnant. Ils ne sont pas bons qu’à sauvegarder des serveurs Unix ;) Dirait-on de Microsoft que c’est un éditeur d’OS et de suite bureautique et qu’il serait saugrenu de les considérer dans une solution Cloud alors que des acteurs comme Amazon et GCP sont sur ce créneau depuis le début ?
Je serais ravi d’en débattre ;)
Il faut aussi faire des choix, on ne peut pas tester l’ensemble des solutions de backup. On a inclus Dell EMC dans nos évals, une solution finalement assez Legacy ne serait-ce qu’en terme de positionnement, en plus de 2 pure players “challengers” et de l’incontournable Veeam (qui est un “niche” player, mais qui évolue depuis des années dans le bon sens), ça me parait assez équilibré, perso. Qu’est-ce que peut apporter un Comvault ou un Netbackup qui ne sera pas couvert par l’un des 4 prétendants et qui serait révolutionnaire en terme de fonctionnalité et dont surtout on aurait pas encore entendu parler ? Je n’en vois pas sur notre périmètre. Enfin, je n’ai pas tout détaillé, mais nous avons également un timing serré qui n’est que très peu compatible avec une évaluation globale du marché de la sauvegarde.
Maintenant, ce qu’on fera sans doute c’est au moins recevoir d’autres éditeurs, à l’affut d’un coup de coeur, c’est possible. On verra en fonction de l’avancement du projet.
Des choses dont on entend pas parler il y en a toujours :) J’ai des clients qui attendez des fonctionnalités qu’ils ont depuis 5 ans ;)
Je vous souhaite de bons tests, le choix d’un outil de backup est structurant, et engageant. Il faut choisir le bon produit aujourd’hui, mais qui sera encore là dans 5 et qui aura évolué avec votre SI. Pas simple.
En dehors du choix légitime de restreindre les tests à quelques acteurs, je suis tjs surpris de l’utilisation du terme Legacy. A partir de quand Veeam deviendra un Legacy ? puisqu’il se bonifie comme du bon vin ?
C’est juste un peu d’humour, vivement le résultat pertinent ! Car je n’imagine pas que tous ces softs ne backup-restore pas. Je suis donc très intéressé par la fonctionnalité « révolutionnaire » qui pourra les départager, vu qu’ils utilisent tous l’API de VMware… l’effort fonctionnel ne peut donc se trouver uniquement là, sinon à couvrir le spectre complet qui est le minimum. Sur quoi portera les tests de comparaison ?
Legacy c’est pour ne pas dire VIEUX (comme moi).
C’est plus politiquement correct, parait-il…
C’est certain que révolutionner une API, si bonne (!!) soit-elle, n’est pas une tâche facile.
Mais certains anciens ne s’en sortent pas si mal que ça comparé aux Dog’s House players
Mais j’attends avec impatience les résultats de ce POC.
Voici la « révolution » fonctionnelle ?https://searchdatabackup.techtarget.com/answer/How-can-AI-and-data-protection-work-together
Il s’agit moins de collecter ou restituer des données ( surtout par API ?, c’est mon côté vieux-legacy… ) que de fournir un avis réglementaire ( ie RGPD / GDPR ), business ( ie provisioning; classification; search ) et technique ( ie pra; quid de la prévision sur la performance et le crash de la future sauvegarde-restauration ) sur la donnée.
« On vise la pomme avec une vision floue… »