Je l’ai déjà évoqué précédemment, une des fonctions phare de GeoSynchrony 5.3 est la possibilité de créer directement les LUNs au sein des pools des baies exploitées à travers VPlex. C’est un gain de temps plus que notable, une opération simplifiée (car plus besoin d’aller d’abord créer vos LUNs dans Unisphere) et aussi beaucoup plus intuitive pour des non spécialistes. En effet, une fois paramétré, l’assistant dédié est particulièrement efficace et simple d’emploi, on va le voir.
Cependant, pour pouvoir disposer de cette nouvelle fonction, il faut disposer d’un système de communication entre le VPlex et les baies cibles. En effet, VPlex ne sait pas “discuter” nativement avec une baie de stockage, fusse-t-elle une VNX ou une VMAX. Pour pouvoir établir le lien, il faut d’abord déployer une solution dédiée : cette interface s’appelle, dans le jargon EMC, “Solutions Enabler for SMI-S”. Le protocole utilisé est donc le SMI (acronyme de Storage Management Initiative).
Concrètement, il s’agit de déployer une pile logicielle sur une VM, puis d’interconnecter le tout. Ici, EMC nous a simplifié la vie, car même s’il est possible d’installer SMI-S manuellement sur a peu près n’importe quel OS (Windows, Linux, Solaris, AIX …), désormais, il existe aussi une vApp sous forme d’OVA. C’est cette dernière solution que j’ai utilisé en interne (vous trouverez tous les liens vers les docs et OVA en fin d’article).
Le pré-requis de cette VM est vraiment minime : 1 vCPU, 2 Go de RAM et 15 Go de disque. Son déploiement est très simple et ressemble à quasi toutes les autres vApp utilisées au quotidien : quelques paramètres réseau et stockage puis la machine se déploie toute seule. Au final, vous obtenez un système autonome avec toutes les fonctions nécessaires à la mise en oeuvre du provisioning VPlex. Au passage, sachez que SMI-S ne se limite pas à VPlex et vous pouvez tout à fait utiliser, par exemple, la même VM que celle exploitée par ViPR (qui utilise le même système de communication avec le monde VNX/VMAX).
Première connexion sur SMI-S :
Un portail de configuration est disponible sur la VM en question, via l’url https://IP:5480 :
Pour vous logguer la première fois, utilisez le compte par défaut “seconfig”, mot de passe “seconfig” et ensuite, n’oubliez pas de changer le mot de passe ;)
Déclaration des baies dans SMI-S :
Une fois dans ce portail, la première chose que vous avez à faire est d’ajouter vos baies de stockage dans l’inventaire. Je n’ai pas de baies VMAX à disposition (désolé … si vous en avez qui ne servent à rien, je suis preneur :) ), donc je vais juste évoquer la partie VNX, mais a priori, d’après la documentation, ce n’est pas plus compliqué, dont acte. Pour ajouter une VNX, rendez-vous dans le menu “Command Execution” et sélectionnez la section “CLARiiON”. Remplissez les champs “SP A IP Addr”, “SP B IP Addr”, “User” et “Password” en fonction des paramètres de votre baie et déclenchez le processus d’enregistrement en cliquant sur “Discover CLARiiON” :
Une fois la découverte terminée et si vos paramètres sont corrects, vous devriez obtenir l’affichage suivant :
Répétez le processus autant de fois que le nombre de baies gérées à travers votre VPlex.
Modification des paramètres d’authentification ECOM :
Seconde chose à faire sur la VM, c’est modifier les paramètres d’authentification de l’interfaction de communication, ECOM. Pour se faire, rendez-vous cette fois-ci à l’url https://IP:5989/ecomconfig :
La encore, utilisez la première fois le compte par défaut : admin, mot de passe “#1Password”.
Une fois loggué, modifiez le mode de passe du compte en question, en utilisant le menu adéquat :
Si vous souhaitez être plus sécurisé encore, vous pouvez, pour chaque connexion (VPlex, ViPR, autres ….) créer des utilisateurs additionnels, mais je n’ai pas trop creusé ces possibilités pour le moment.
Connexion du VPlex au SMI-S :
On y est presque : vous devez maintenant connecter chacun de vos clusters au SMI-S. Pour se faire, vous avez deux possibilités, comme toujours, soit en ligne de commande, soit via l’interface Web.
Coté Web, c’est assez intuitif : rendez-vous dans la section “Provision Storage -> cluster-X -> Array management providers” :
Cliquez sur le bouton “Register” en bas de la liste et renseignez les informations nécessaires :
Le champ “Provider Name” est laissé à votre discrétion et désigne le nom logique du SMI en question. On peut en effet avoir plusieurs interfaces différentes. D’ailleurs, sachant que VPlex est par définition relativement agnostique aux baies de stockage, on peut tout à fait imaginer disposer d’interfaces SMI-S pour NetApp, HDS, HP et consors. Si vous avez ce type d’équipement, je suis intéressé par vos retours sur le sujet ! Attention, pour le user et password, utilisez celui que vous avez déclaré dans l’interface ECOM, ou le compte par “admin” défaut avec son mot de passe modifié. Normalement, si tout se passe bien, le SMI-S sera reconnu et ajouté à la liste. L’onglet contextuel de droite vous permet de voir la liste des baies détectées par VPlex via ce SMI-S et configurées en tant que back-end dans le cluster en question. La jointure se fait via le numéro de série de la baie (CKMxxxx/APMxxxx/SYMxxxx).
Coté CLI, c’est aussi relativement facile, le contexte se situe sous la hiérarchie /clusters/cluster-X/storage-elements/array-providers. La commande à utiliser est tout simplement “register” :
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 |
VPlexcli:/clusters/cluster-1/storage-elements/array-providers> ll Name Provider Type Connectivity Status --------- ------------- ------------------- vplexsmis SMI-S connected VPlexcli:/clusters/cluster-1/storage-elements/array-providers> register -h synopsis: register [<options>] <name> <ip-address> <username> <provider-type> <port-number> Associates an Array Management Provider to a single VPLEX Cluster. options (* = required): -h | --help Displays the usage for this command. --verbose Provides more output during command execution. This may not have any effect for some commands. -c | --cluster= <cluster context> The VPLEX cluster associated with the Array Management Provider. Can be omitted when the command is executed from or below a cluster context, in which case the cluster is implied. -s | --use-ssl Determination to use http or https (ssl) protocal when connecting to the Array Management Provider's url. If omitted, default value is 'false'. positional arguments (* = required): *-n | --name= <name> The name of the Array Management Provider. *-i | --ip-address= <ip-address> The IP address of the Array Managment Provider. *-u | --username= <user name> The username required for connecting to the Array Management Provider. *-t | --provider-type= <provider-type> The type of Array Management Provider. 'SMI-S' is currently the only provider type supported. *-p | --port-number= <arg> The port number to use along with the ip-address to construct the url to the Array Management Provider. VPlexcli:/clusters/cluster-1/storage-elements/array-providers> |
C’est terminé ! Votre VPlex est prêt à piloter les baies de stockage déclarées, plus besoin d’Unisphere pour vos activités “VPlex” ! Voici, pour l’exemple, une série de copies d’écran correspondant au provisionement d’un volume local vers notre environnement bac à sable :
Sources (EMC Support) :
Release Notes Solutions Enabler/SMI-S 7.6.2 : Solutions_Enabler_7.6.2_Release_Notes.pdf
Solutions Enabler vApp (OVA) : DL53228_Solutions_Enabler_7.6.2.40_Virtual_Appliance.ova
Solutions Enabler 7.6 Documentation Set : Solutions_Enabler_7.6_Documentation_set.pdf
Provisioning with EMC VPlex Integrated Array Services (VIA) : Provisioning_with_EMC_VPLEX_Integrated_Array_Services.pdf
Incroyable le temps qu’on gagne. On est passé d’une procédure de 40 pages à 2 pages.
Par contre, le nom généré automatiquement pour les LUNs est perturbant ainsi que le LUN id.
Connaîtriez vous une méthode pour personnaliser ces paramètres?
Merci d’avance pour la réponse.
Bonjour Gael,
Malheureusement, la 5.3 ne dispose d’aucune option spécifique pour proposer des modèles de nommage en cas d’utilisation du wizard VIAS. La 5.4 fait mention de la possibilité de sélectionner le type de provisionning des LUNs (Thin ou Thick), mais guère plus.
Il y a éventuellement l’option ViPR Controller, qui propose des choses à ce niveau, mais on sort du périmètre VPlex stricto sensu ;)
Merci pour la réponse.
Nous allons utiliser le provisionning from storage volumes pour garder la maitrise du nommage au niveau des VNX. Dans tous les cas, on est gagnant.
C’est aussi le parti que nous avons pris ^^
Cédric