Depuis plusieurs années, l’orientation de nos différents investissements stockage a été plutôt pilotée par la technologie et les contraintes techniques (plan de secours informatique, capacity planning perf et volume etc. …). Or, depuis environ 2 ans, nous avons amorcé un virage très important dans notre approche du stockage des données. En effet, l’explosion des volumétries dans certains domaines d’activité et les besoins croissant en performance sur des applications spécifiques nous ont conduit à ré-évaluer le positionnement des données enregistrées et sauvegardées en y ajoutant une dimension “usage et typage de donnée”.
Sous ces termes se cache en fait un bouleversement complet, non seulement dans la stratégie d’investissement, mais aussi vis à vis de l’implication des entités et utilisateurs générant les données. Pour y voir plus clair et proposer une nouvelle approche à notre direction, nous avons réalisé un schéma directeur avec l’aide d’APX Intégration, un partenaire historique de confiance pour notre institution. Ce schéma directeur a duré environ 2 mois et a produit des résultats sans appel, confirmant nos convictions sur la nécessité de ce changement de politique.
Désormais, tout “volume de données” (qu’il soit structuré ou non) généré via une application ou un équipement technique quelconque, doit faire l’objet d’une qualification préalable plus complète encore que par le passé, incluant notamment des nouvelles questions “fonctionnelles/métier” en plus des questions purement techniques traditionnelles. Les réponses à ces question nous permettent ensuite de positionner ce volume correctement sur des supports adaptés et d’envisager leur “protection” plutôt que leur sauvegarde, dans certains cas. Voici les principales questions qui sont posées lors de cette phase (dans le désordre) :
Toutes ces questions permettent au final de définir une “classe de service” qui portera l’engagement global de notre direction informatique vis à vis du client quant aux aspects de disponibilité, performance et protection des données confiées. Cette classe définit également de-facto le niveau de protection associé (sauvegarde off-line ou non, snapshot, WORM etc. …).
Aujourd’hui, nous avons déterminé 3 classes de service :
En face de chacune de ces classes de service, nous avons défini 3 “technologies” d’hébergement :
Aujourd’hui, nous sommes en train de préparer les TIER2 et TIER3. Nous travaillons en parallèle à l’implantation possible d’EMC XtremIO pour le TIER1, via un PoC courant Juin afin de réellement étudier la viabilité de cette fantastique appliance dans notre contexte qualité et budgétaire. Cette démarche illustre technologiquement le changement de modèle de notre stratégie d’hébergement des données de production de notre institution. La maîtrise des coûts au To et l’excellence de la qualité de service sont bien entendu au centre de nos préoccupations dans cette affaire.
A l’heure du “big-data” et du passage au 100% numérique de nos process métiers et logistiques internes, c’est une nécessité pour aborder sereinement les années qui viennent. De plus, le TIER3 nous permettra de contenir les investissements en sauvegarde off-line et au final de faire vraisemblablement des économies d’échelle sur notre budget global stockage/sauvegarde/archivage.
N’hésitez-pas à partager vos expériences dans les commentaires !
1 thought on “Stratégies de stockage à l’heure du BigData et de l’exigence de performance”