Rester à jour des innovations en infrastructure, de l’utilisation efficace des ressources, de la vue d’ensemble des interfaces de gestion et des points de contact, et de la sélection de stratégies efficaces.

ait : la virtualisation a eu un impact fondamental et permanent sur l’informatique en général et le datacenter en particulier. Aujourd’hui, la plupart des services s’exécutent dans des environnements virtuels et les services informatiques tendent à appliquer systématiquement la virtualisation aux nouvelles applications et aux nouveaux déploiements de services. Ainsi, les administrateurs privilégient l’environnement virtuel pour exécuter de nouvelles applications au lieu de créer un nouvel environnement physique. Et bien que la virtualisation offre des avantages significatifs, elle présente également des défis qu’il est important de surmonter pour aider l’entreprise à aller de l’avant. Le présent chapitre décrit ces défis.

Innovation au niveau de l’infrastructure

Dès qu’une startup met sur le marché un nouveau produit extraordinaire, les grandes entreprises se précipitent pour mettre en œuvre cette solution. La prolifération de périphériques spécialisés a généré une complexité inutile et débouche sur une situation chaotique dans les datacenters. L’innovation est formidable, et loin de nous l’envie de la voir se tarir, mais les datacenters finissent par être encombrés au point de devenir ingérables. Il est temps d’y remettre de l’ordre.

Au cours de la dernière décennie, les services informatiques ont concentré leurs efforts sur la capacité de stockage, en déployant toutes sortes de technologies pour dompter l’appétit insatiable en capacité, avec notamment du matériel d’optimisation des réseaux WAN et des appareils de déduplication des sauvegardes. Ceci a eu pour conséquence de faire des technologies d’optimisation de l’efficacité des données une fonctionnalité standard de nombreux produits. Mais que se passe-t-il lorsque tous ces produits sont réunis dans le datacenter ? Vous passez votre temps à dédupliquer et hydrater les données alors qu’elles transitent entre différents domaines techniques. Le système de stockage déduplique les données, puis elles sont lues pour l’enregistrement et doivent alors être hydratées (pour rétablir un état compréhensible par l’application de sauvegarde) et souvent dédupliquées à nouveau quelque part sur le circuit de sauvegarde des données. Les coûts de retraitement par le processeur des mêmes données sont énormes, sans parler du coût en bande passante pour toutes ces données hydratées.

Conseil : La déduplication est un processus qui consiste à rechercher des blocs communs dans les données. Une fois identifiés, ces blocs communs sont remplacés par un minuscule pointeur référençant la copie unique des données déjà stockées sur disque, ce qui mobilise beaucoup moins de capacité lors de l’écriture sur le système de stockage. La déduplication permet de réaliser des économies phénoménales de capacité de stockage et, ce qui est important, sur les opérations d’E/S par seconde (IOPS) dans la mesure où le nombre d’écritures sur disque est réduit. L’hydratation consiste à inverser le processus de déduplication, notamment lorsque les données doivent être transférées sur un autre système qui ne prend pas en charge les données dédupliquées.

Ressources sous-utilisées

La virtualisation a permis aux entreprises de consolider nombre de leurs serveurs sur une plate-forme commune : la couche logicielle appelée hyperviseur. Ce choix a aidé les services informatiques à optimiser l’utilisation de leurs ressources serveur. Avant la virtualisation, le taux d’utilisation des serveurs était généralement de seulement 15 % en moyenne, et la virtualisation a permis de relever considérablement cette moyenne. Par conséquent, les entreprises bénéficient désormais d’un retour sur investissement largement supérieur pour les serveurs. De plus, cela leur évite d’acheter autant de serveurs physiques que dans le passé. La virtualisation a révolutionné l’affectation des ressources serveur.

Malheureusement, les services informatiques doivent généralement gérer des groupes de personnes distincts, définis en fonction des ressources matérielles. Le premier de ces groupes gère le stockage, par exemple, tandis que le deuxième gère le côté serveur et le troisième s’occupe du réseau. En cas de problèmes, il n’est pas rare de voir les différents groupes se rejeter la responsabilité. De plus, les charges de travail émergentes créent des défis de gestion des ressources qui poussent les informaticiens à mettre en place des environnements d’infrastructure différents en fonction des services. Les environnements de VDI (« Virtual Desktop Infrastructure » ou infrastructure de bureau virtuel), par exemple, ont des schémas d’utilisation des ressources très différents de ceux des projets de virtualisation des serveurs.

Afin de satisfaire les attentes des utilisateurs concernant la VDI, des environnements totalement séparés, des serveurs au stockage, sont mis en œuvre. Et les îlots de ressources ne constituent-ils pas le problème que la virtualisation devait résoudre ? Ces îlots représentent le principal motif de sous-utilisation. La virtualisation est censée former un pool unique de ressources qui sont ensuite affectées en fonction des besoins des applications, afin d’optimiser l’utilisation de ces ressources.

Interfaces multiples de gestion

Périphériques de stockage. Optimiseurs. Hyperviseurs. Répartiteur de charge. Qu’ont-ils en commun ? Chacun de ces composants disparates dispose de sa propre interface de gestion. Si vous utilisez plusieurs composants, chacun ayant sa propre console de gestion (et son propre moteur de règles) et non pas un système de gestion unique, centralisé et facile à utiliser, vous risquez d’être confronté aux défis suivants :

  • Les fournisseurs se rejettent la faute en cas de problème.
  • Il est impossible de faire évoluer votre environnement de datacenter de façon simple et linéaire.
  • Complexité accrue dans la mesure où les règles et la gestion sont liées aux composants informatiques, et non pas aux charges de travail.

Difficultés et délais de déploiement

Les défis de ressources constituent la principale source de problèmes lors du déploiement de nouvelles applications et services. Les surcharges administratives viennent immédiatement en second, ce qui mérite une explication plus détaillée.

Conversion en système plat

Les datacenters existants sont très délicats sous bien des aspects. Toute modification à quelque niveau que ce soit risque de perturber l’ensemble de la structure. Sur la base de l’expérience et des tactiques appliquées par les principaux fournisseurs de solutions Cloud, les fournisseurs d’hyperconvergence remplacent les datacenters hiérarchisés comportant des silos de ressources par une structure beaucoup plus plate. Dans la mesure où pratiquement tous les matériels qui étaient isolés dans l’ancienne organisation des datacenters sont regroupés dans l’environnement hyperconvergé, le service informatique doit changer de priorités, modifier ses structures d’affectation des ressources et renouveler ses compétences. Contrairement à l’ancien modèle qui concentrait du personnel ayant des connaissances approfondies dans les différentes ressources, l’hyperconvergence fait appel à des généralistes de l’infrastructure. Ces derniers n’ont pas besoin d’avoir de connaissances approfondies dans telle ou telle ressource, mais doivent avoir une vue d’ensemble de l’ensemble des types de ressources. Les connaissances ultra-spécialisées ne sont plus nécessaires. Dans un environnement hyperconvergé, les tâches les plus complexes sont résolues par le système. Les généralistes en infrastructure doivent disposer des connaissances nécessaires pour répondre aux besoins métiers et pour gérer l’ensemble de l’environnement au travers d’une interface d’administration unique. De bien des façons, ces personnes accordent davantage d’attention aux applications que leurs prédécesseurs, car ces derniers devaient traiter des îlots de ressources. Ils doivent simplement savoir comment appliquer les ressources d’infrastructure pour répondre aux besoins des différentes applications. Ce développement est particulièrement encourageant pour les services informatiques qui ont eu des difficultés à aligner leur fonctionnement sur les besoins métiers :

  • Cette nouvelle structure permettra d’éliminer les îlots inefficaces de gestion des ressources qui ont émergé dans les différents services informatiques.
  • Un datacenter « plat » géré par un groupe d’ingénierie en infrastructure permet de réaliser des économies d’échelle considérables par comparaison aux anciens îlots de ressources.
  • Les généralistes en infrastructure sont beaucoup plus proches des applications que les anciens spécialistes.

Solutions temporaires reposant sur des baies Flash

Le stockage Flash ultra-rapide est désormais disponible à un prix relativement abordable, ce qui a créé de nouvelles branches sur le marché du stockage. L’une de ces branches propose des baies constituées uniquement d’unités Flash. Les fournisseurs engagés dans la mise en place de solutions reposant exclusivement sur Flash proposent des produits très intéressants, mais la plupart restent des palliatifs destinés à résoudre des problèmes propres à des applications spécifiques ; pensez notamment aux solutions de infrastructure VDI et d’analyse prédictive du Big Data. Pour la vaste majorité des charges de travail des entreprises, par contre, les baies reposant exclusivement sur des disques Flash sont un bon exemple de surenchère matérielle pour un problème de performances. Les solutions de stockage reposant sur une combinaison de stockage Flash et de disques durs offrent une approche plus équilibrée et raisonnable pour les problèmes de charge de travail. D’autre part, le coût par Go du stockage Flash est considérablement supérieur à celui des autres possibilités. Ceci dit, les applications impliquant des centaines de milliers, voire des millions d’E/S par seconde, sur un nombre limité de racks ne peuvent pas se dispenser de baies 100 % Flash. Mais pour tout le reste, envisagez des options de stockage plus équilibrées. N’oubliez pas qu’une baie Flash n’est qu’une baie de stockage plus performante. Elle ne contribue en rien à résorber les îlots de ressources, à gérer les infrastructures, à résoudre les défis d’interopérabilité ou encore les problèmes d’évolutivité des datacenters modernes. Le front des ressources présente plusieurs défis, notamment :

  • Mixité des E/S : La consolidation des machines virtuelles contribue à créer une charge de travail d’ES aléatoire, avec des schémas différents pour la lecture/l’écriture des données sur le système de stockage. Je reviendrai sur le concept de mixité des E/S plus en détail dans ce chapitre.
  • Capacité : Un autre défi consiste à s’assurer que la capacité de l’entreprise se développe. Avec des ressources divisées et des îlots de ressources éparpillés dans le datacenter, maintenir une capacité suffisante est de plus en plus difficile.
  • Surcharge : Même si vous disposez de ressources suffisantes pour déployer une nouvelle application (voir le point précédent), la surcharge administrative résultant de ce processus pose ses propres défis :
      • Une nouvelle unité logique (LUN) doit être provisionnée pour prendre en charge la nouvelle application. Si le stockage est hiérarchisé, ce processus risque de nécessiter plusieurs étapes.
      • Une ou plusieurs nouvelles machines virtuelles doivent être provisionnées.
      • La mise en réseau de ces nouvelles machines virtuelles doit être configurée.
      • Les répartiteurs de charge et les périphériques d’optimisation de réseau étendu (WAN) doivent être gérés pour prendre en charge les nouvelles machines virtuelles.

    Des mécanismes de protection des données doivent être mis en œuvre pour les nouveaux services.

Eh bien, ça fait beaucoup de choses à faire ! Tout ceci prend du temps et fait intervenir différentes équipes. Bonne chance !

Stockage

La virtualisation dépend fortement du stockage, mais cette ressource a semé le chaos dans les entreprises qui s’efforcent de tout virtualiser. Laissez-moi vous expliquer pourquoi. Prenons les charges de travail classiques qui dépendaient d’un serveur physique. Lorsque vous deviez mettre en place ce type d’environnement, il fallait adapter avec soin chaque serveur en fonction des besoins uniques de chaque application. Les serveurs de bases de données étaient associés à deux disques, un pour les fichiers de la base de données et l’autre pour les fichiers log, avec plusieurs baies de disques redondantes (RAID). Les serveurs de fichiers utilisaient un système RAID 5 pour optimiser la capacité, tout en assurant la protection des données. Prenons maintenant un environnement virtualisé. Vous avez pris tous ces environnements applicatifs construits avec soins et les avez réunis dans un environnement unique de stockage partagé. Chaque application conserve ses propres besoins en stockage, mais vous avez demandé au système de stockage de faire au mieux, ce qu’il ne fait pas toujours.

Mixité des E/S

Autrefois, l’optimisation des systèmes de stockage reposait essentiellement sur la gestion des LUN. Les LUN étaient répliquées à partir d’un contrôleur dans une baie de stockage vers une autre LUN attachée à un contrôleur dans une deuxième baie. Le système de stockage créait des snapshots des LUN, et les LUN ne pouvaient pas être déplacées d’un hôte à l’autre. Aujourd’hui, les serveurs ont été remplacés par des machines virtuelles et nombre d’entre elles s’exécutent sur un hôte unique, tandis que plusieurs hôtes utilisent une LUN unique pour stocker des machines virtuelles. Ceci signifie que le système de stockage comporte des douzaines, voire des centaines, de serveurs logiques (machines virtuelles) qui sont tous stockés sur la même LUN. Il n’est plus possible de gérer une application unique ou un hôte, ou encore une machine virtuelle sous l’angle du système de stockage. Une plate-forme centrée sur les machines virtuelles permet d’apporter une réponse à la mixité des E/S, une expression qui décrit les environnements dans lesquels des schémas mixtes d’E/S entrent en concurrence pour des ressources de stockage limitées et permettent d’optimiser les différentes machines virtuelles. Des règles peuvent être appliquées à différentes machines virtuelles et les performances peuvent être optimisées en fonction de différentes machines. Les sauvegardes peuvent être gérées par machine virtuelle, tout comme la réplication. Vous avez sans doute compris l’idée générale ! Lorsque toutes vos applications tentent de travailler ensemble sur la même LUN, cela a pour conséquence la mixité des E/S. Voici quelques exemples de services communs qui contribuent à la mixité des E/S :

  • Bases de données : Les bases de données incluent des schémas aléatoires d’E/S. Le système doit parcourir les segments du disque pour trouver ce qu’il recherche.
  • Fichiers log de bases de données : Les fichiers log sont séquentiels par nature. Ces fichiers servent uniquement à l’écriture séquentielle de données, sauf cas particuliers.
  • Stockage aléatoire des fichiers : Les E/S des serveurs de fichiers sont très aléatoires. Vous ne pouvez pas prévoir quand un utilisateur va enregistrer un nouveau fichier ou en ouvrir un ancien.
  • Applications à l’échelle de l’entreprise : Des applications telles que Microsoft Exchange et SharePoint sont sensibles à la configuration du stockage et chaque application inclut souvent un mélange d’E/S aléatoires et séquentielles.
  • VDI : Le stockage VDI est l’un des principaux facteurs de perturbation sur le marché du stockage. Ses besoins sont variés. Il suffit parfois de 10 à 20 E/S par seconde par utilisateur. Mais dans d’autres cas, notamment lors des pics de démarrage et de connexion, les E/S par seconde peuvent atteindre des valeurs vertigineuses.

Les techniques récentes consistent à combiner ces différentes charges de travail. En d’autres termes, les efforts de consolidation des environnements ont engendré un monstre de stockage. La plupart des environnements reposant sur un réseau de stockage (SAN) font face à des problèmes énormes du fait de la mixité des E/S :

  • La poursuite de la consolidation des machines virtuelles contribue à créer des charges de travail d’E/S aléatoires, avec des schémas différents pour la lecture/l’écriture des données sur le système de stockage sous-jacent.
  • Les flux d’E/S fortement aléatoires ont un effet négatif sur les performances globales, car les machines virtuelles demandent l’accès aux mêmes ressources de disque.

L’une des situations qui explique ce phénomène relativement nouveau pour le stockage est le pic de démarrage VDI qui se produit lorsque de nombreux utilisateurs tentent de démarrer leurs ordinateurs virtuels en même temps. Le résultat est le suivant : Les périphériques de stockage ne peuvent plus suivre l’avalanche de requêtes, mais en fait c’est surtout le début de la journée qui est réellement mortel pour les périphériques de stockage. Lorsque les ordinateurs démarrent, le système d’exploitation doit lire une masse énorme de données et les placer en mémoire de façon à rendre le système utilisable. Il est donc facile de s’imaginer ce qui se passe lorsque des centaines, voire des milliers d’utilisateurs démarrent leurs ordinateurs virtuels en même temps. Les systèmes de stockage existants croulent sous le poids des E/S et le démarrage complet des systèmes des utilisateurs peut prendre très longtemps.

Conseil : il est possible d’atténuer considérablement cette situation en utilisant des disques SSD comme couche de mémoire cache. L’ajout de ce type de service sans prendre en compte les pertes d’efficacité administrative qu’il introduit est devenu courant depuis quelque temps, et c’est l’une des principales raisons pour lesquelles les gens créent des îlots de ressources lorsqu’ils souhaitent implémenter la VDI.

E/S de lecture/écriture

Dans les environnements de datacenters traditionnels avec du stockage partagé, la différence de performances entre la lecture et l’écriture des données est incroyable. La lecture est généralement rapide et peut se faire avec une simple opération d’E/S. Par contre l’écriture des données est une tout autre histoire, car elle peut nécessiter jusqu’à 6 opérations d’E/S pour aboutir. En passant de RAID 5 à RAID 6 pour renforcer la protection des données, les administrateurs ont introduit une surcharge supplémentaire dans l’équation de stockage. Une opération d’écriture en RAID 6 nécessite 6 E/S, car il faut non seulement écrire les données, mais encore les informations de parité, opération qui doit être répétée plusieurs fois sur un système RAID 6. Les calculs RAID tendent également à surcharger le processeur lors des évaluations de parité indispensables pour assurer la protection des données.

Atténuation des charges

Les administrateurs peuvent intervenir dans les environnements existants de plusieurs façons pour tenter de résoudre les problèmes graves d’E/S qui résultent des charges de travail partagées. Vous trouverez ci-dessous quelques-unes des possibilités :

  • Acheter des environnements distincts pour prendre en charge chaque application.
  • Acheter des périphériques de stockage autonomes complexes incluant des fonctionnalités automatiques de hiérarchisation.
  • Acheter plusieurs niveaux de stockage et les gérer séparément.

Qu’est-ce que ces techniques d’atténuation ont en commun ? Dans tous les cas les administrateurs doivent surprovisionner le stockage, ce qui implique davantage d’investissements en matériel de stockage. Mais ces solutions demandent également davantage de temps pour leur configuration et leur gestion. Quoi qu’il en soit, aucun de ces modèles n’est viable à long terme.

Points de contact multiples

Les données qui se touchent de nombreuses fois dans un environnement virtuel ne sont pas bon signe. Imaginons le scénario suivant : Un datacenter existant, mais dont la virtualisation est avancée, comporte de nombreux serveurs VMware vSphere connectés à un réseau de stockage (SAN). Le SAN dispose de mécanismes de déduplication des données. L’entreprise sauvegarde ses données en appliquant une méthode locale « disque vers disque vers bande » ; elle copie également certaines machines virtuelles dans un datacenter distant chaque jour. De cette façon, l’entreprise gère les sauvegardes locales et dispose de mécanismes de reprise après sinistre. Ce scénario implique une forte redondance. La Figure 2-1 suit le cheminement des données dans les méandres des processus associés à ce scénario :

Figure 2-1 : L’infrastructure hyperconvergée consomme bien moins de puissance de traitement et de bande passante réseau que les systèmes non convergés.

À chaque fois que les données doivent être hydratées, puis redédupliquées alors qu’elles transitent d’un composant à l’autre, le processeur est sollicité. La déduplication peut être une opération onéreuse et le traitement constant de données à différents emplacements présente plusieurs désavantages :

    • L’utilisation constante du processeur pour traiter les données plusieurs fois limite le nombre de machines virtuelles pouvant s’exécuter dans l’environnement.
    • Les données prennent plus de temps à traverser le réseau, car elles ne sont plus sous forme réduite lorsqu’elles passent d’un service à un autre.
    • Les coûts en termes de bande passante de réseau étendu (WAN) sont significatifs dans la mesure où les données transitent sans réduction sur des connexions étendues.

Mais il y a pire. De nombreux systèmes de stockage, ce qui inclut ceux qui assurent la protection des données, utilisent une méthode de déduplication en post-traitement, par opposition au processus à la volée. La déduplication en post-traitement signifie que les données ne sont dédupliquées qu’une fois écrites sur le disque. Voici les différentes étapes :

      • 1. Écrire les données sur le disque sans déduplication. Nécessite une capacité disponible et génère beaucoup d’E/S par seconde.
      • 2. Lire à nouveau les données enregistrées sur le disque. Les données doivent à nouveau être touchées par le moteur de déduplication en post-traitement, ce qui consomme encore plus d’E/S par seconde et de ressources du processeur.
      • 3. Sollicitation du processeur pour la déduplication ou la compression. Une fois lues, les données doivent être traitées à nouveau en sollicitant le processeur.

Ceci signifie que les données seront répliquées avant la déduplication et que tout le travail de déduplication pour libérer de la capacité doit se faire à la fois sur le site principal et les sites de reprise sur sinistre. Tout ceci consomme des ressources supplémentaires, ce qui inclut le processeur, les E/S par seconde, la capacité et la bande passante réseau. La déduplication en post-traitement sollicite toutes ces ressources pour réduire la capacité de stockage. Le solde n’est pas positif. En effet, les coûts augmentent alors que l’efficacité se réduit. La meilleure solution, quel que soit l’environnement, consiste à éliminer les écritures sur disque avant même qu’elles n’aient eu lieu. Dans un environnement hyperconvergé, du fait de la mise en cache en mémoire RAM, de nombreuses opérations n’ont pas à toucher le stockage. Dans un datacenter moderne, l’efficacité des données repose sur les E/S par seconde et la bande passante WAN, pas sur la capacité de stockage. La capacité est désormais considérable, car les fabricants commercialisent des disques durs de plus en plus volumineux (6 To et plus !). À l’origine, les technologies d’efficacité des données étaient axées sur le marché de la sauvegarde. L’objectif était de fournir une solution de remplacement pour les bandes d’enregistrement. Afin d’assurer le volet économique, l’objectif principal consistait à placer davantage de données sur le disque tout en assurant le débit indispensable pour les sauvegardes. En résumé, mettre 20 kg de données dans un sac de 5 kg. C’était la bonne solution à l’époque, car même si la taille des disques avait progressé, leurs performances s’étaient à peine améliorées.

Les entreprises n’ont pas un problème de capacité, mais un problème d’E/S par seconde qui se traduit par des performances médiocres. Si l’on ajoute les impératifs de restauration en cas de sinistre présents dans la plupart des environnements, la demande en bande passante WAN a augmenté, ce qui pose en retour un nouveau défi. Les technologies de réduction des données, telles que la déduplication, sont conçues pour résoudre les défis émergents de ressources, ce qui inclut les besoins en bande passante WAN. Étant donné cette réalité, dans un environnement de stockage primaire, il est important d’optimiser les performances et la latence de l’infrastructure, mais pas sa capacité et son débit. Cela implique une nouvelle technologie et une nouvelle approche systémique de l’efficacité des données, ce qui est l’une des caractéristiques de l’infrastructure hyperconvergée. La déduplication à la volée apporte le niveau d’efficacité indispensable et se fait en seulement deux étapes : traiter et écrire les données. La déduplication à la volée ne sollicite le processeur qu’une seule fois et permet de réduire les E/S par seconde, la bande passante WAN et la capacité de stockage. Il s’agit de ressources critiques, mais ces ressources ne sont conservées que si l’efficacité des données est assurée à la volée. Dans un datacenter moderne, l’efficacité des données a également des répercussions sur la mobilité et la protection des données, notamment pour la sauvegarde et la restauration en ligne. L’efficacité des données permet d’économiser toutes les E/S traditionnellement requises pour les opérations de sauvegarde et restauration.

Règles mal adaptées

Outre les défis de performances du monde post-virtualisation, les entreprises virtualisées font face à des défis d’application des règles dans les univers physiques et virtuels :

      • Univers physiques : Les serveurs physiques utilisent un mappage direct des applications vers le serveur, vers la baie de stockage, vers la LUN, vers les règles de stockage. Ceci résulte en un environnement où une règle d’application est directement liée à une construction logique interne de la baie de stockage. Il n’y a pas d’abstraction. Cette approche est responsable de la complexité des mises à niveau des systèmes de stockage. Par exemple, une règle de réplication est appliquée à une LUN dans la baie de stockage X à l’adresse IP Y et dit que cette LUN doit effectuer une réplication sur la baie de stockage A à l’adresse IP B. Imaginez la complexité de remplacement d’une baie en présence de deux baies dans deux emplacements et de règles de réplication enchevêtrées. Avec une telle complexité, il n’est plus étonnant que les administrateurs de stockage soient si nombreux.
      • Univers virtuels : Dans l’univers virtuel, de nombreuses applications sont placées sur un hôte et de nombreux hôtes sur une LUN unique. Il n’est pas efficace d’appliquer une règle à une seule LUN si cette LUN représente les données de nombreuses applications (et hôtes). Dans un environnement hyperconvergé, les règles de sauvegarde et de réplication sont associées directement à des applications individuelles (ou des machines virtuelles). Il n’y a pas de LUN ou d’ensembles RAID à gérer. Les règles de réplication spécifient une destination, dans ce cas un datacenter, qui est une création abstraite par rapport à l’infrastructure. Ceci permet à l’administrateur de procéder à une mise à niveau de la plate-forme sans reconfigurer les règles et sans migrer les données, ce qui augmente l’efficacité et réduit les risques.