Stratégies de stockage à l’heure du BigData et de l’exigence de performance

stratDepuis plusieurs années, l’orientation de nos différents investissements stockage a été plutôt pilotée par la technologie et les contraintes techniques (plan de secours informatique, capacity planning perf et volume etc. …). Or, depuis environ 2 ans, nous avons amorcé un virage très important dans notre approche du stockage des données. En effet, l’explosion des volumétries dans certains domaines d’activité et les besoins croissant en performance sur des applications spécifiques nous ont conduit à ré-évaluer le positionnement des données enregistrées et sauvegardées en y ajoutant une dimension “usage et typage de donnée”.

Sous ces termes se cache en fait un bouleversement complet, non seulement dans la stratégie d’investissement, mais aussi vis à vis de l’implication des entités et utilisateurs générant les données. Pour y voir plus clair et proposer une nouvelle approche à notre direction, nous avons réalisé un schéma directeur avec l’aide d’APX Intégration, un partenaire historique de confiance pour notre institution. Ce schéma directeur a duré environ 2 mois et a produit des résultats sans appel, confirmant nos convictions sur la nécessité de ce changement de politique.

Désormais, tout “volume de données” (qu’il soit structuré ou non) généré via une application ou un équipement technique quelconque, doit faire l’objet d’une qualification préalable plus complète encore que par le passé, incluant notamment des nouvelles questions “fonctionnelles/métier” en plus des questions purement techniques traditionnelles. Les réponses à ces question nous permettent ensuite de positionner ce volume correctement sur des supports adaptés et d’envisager leur “protection” plutôt que leur sauvegarde, dans certains cas. Voici les principales questions qui sont posées lors de cette phase (dans le désordre) :

  • Quelle position, en terme de criticité, occupe-t-il vis à vis de notre système d’information ?
  • Doit-il être inclus dans notre plan de continuité d’activité ?
  • Ces données sont-elles vivantes ou de type contenu fixe ?
  • Supportent-elle un caractère transactionnel ou plus linéaire ?
  • Quelle est leur “courbe de croissance” (en volume pur mais aussi en nombre de fichiers unitaires) ?
  • Pour le contenu fixe, quel est la durée de rétention ?
  • Y-a-t-il une fonction “archivage” (patrimonial, valeur probante, économique …) intégrée au sein de l’application générant cet ensemble ?
  • (…)
  • Toutes ces questions permettent au final de définir une “classe de service” qui portera l’engagement global de notre direction informatique vis à vis du client quant aux aspects de disponibilité, performance et protection des données confiées. Cette classe définit également de-facto le niveau de protection associé (sauvegarde off-line ou non, snapshot, WORM etc. …).

    Aujourd’hui, nous avons déterminé 3 classes de service :

  • TIER1 : Transactionnel, applications critiques, extrème performance, données structurées ; volumétrie “contenue”, très haut niveau de performance, sauvegarde off-line, réplication temps-réel, RPO de 0, RTO < 4H
  • TIER2 : Stockage “généraliste” de données vivantes orienté “volume” ; niveau de performance standard, sauvegarde off-line, RPO <24 heures, RTO < 8 heures (messagerie, GED, Intranet etc. ...)
  • TIER3 : Stockage de type contenu fixe, archivage patrimonial ou économique, stockage à valeur probante ; protection contre effacement accidentel (plus de sauvegarde), niveau de performance orienté low-cost, durée de rétention élevée, volumétrie potentiellement très élevée (plusieurs Po)
  • En face de chacune de ces classes de service, nous avons défini 3 “technologies” d’hébergement :

  • TIER1 : Baies SAN orientées performance pure et dé duplication massive – EMC XtremIO répliquées via EMC VPlex ou VNX Orienté performance
  • TIER2 : Baies SAN multi-usage – EMC VNX répliquées via EMC VPlex ou MirrorView
  • TIER3 : Système NAS ultra-scalable orienté archive/big-data – EMC ISILON répliqué (2 instances)
  • Aujourd’hui, nous sommes en train de préparer les TIER2 et TIER3. Nous travaillons en parallèle à l’implantation possible d’EMC XtremIO pour le TIER1, via un PoC courant Juin afin de réellement étudier la viabilité de cette fantastique appliance dans notre contexte qualité et budgétaire. Cette démarche illustre technologiquement le changement de modèle de notre stratégie d’hébergement des données de production de notre institution. La maîtrise des coûts au To et l’excellence de la qualité de service sont bien entendu au centre de nos préoccupations dans cette affaire.

    A l’heure du “big-data” et du passage au 100% numérique de nos process métiers et logistiques internes, c’est une nécessité pour aborder sereinement les années qui viennent. De plus, le TIER3 nous permettra de contenir les investissements en sauvegarde off-line et au final de faire vraisemblablement des économies d’échelle sur notre budget global stockage/sauvegarde/archivage.

    N’hésitez-pas à partager vos expériences dans les commentaires !

    One thought on “Stratégies de stockage à l’heure du BigData et de l’exigence de performance

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *