Migrer ses environnements Big Data vers le cloud

Jan 7, 2022 | Archi/Big Data

Accompagnement de la croissance des besoins, modèle économique adapté aux usages fluctuants, capacité à masquer une partie de la complexité technique. Le mode PaaS présente plusieurs avantages pour l’exploitation d’une plateforme Big Data. A condition de bien en maîtriser toutes les spécificités.

Réussir sa migration vers le Big Data

Pourquoi opérer une migration Big Data vers le cloud ?

Il suffit d’énumérer certaines caractéristiques des environnements Big Data – montée en charge fréquente du fait de l’accroissement des volumes, complexité technique et usage souvent non linéaire du fait de la prédominance des applications décisionnelles – pour comprendre l’intérêt d’exploiter ce type de systèmes sur le Cloud public.

Le Cloud offre tout d’abord une simplicité d’adaptation des infrastructures techniques à l’évolution des besoins. Par ailleurs, adopter un service Cloud prêt à l’emploi, en mode PaaS, permet d’accélérer l’innovation, car les solutions PaaS des différents fournisseurs Cloud intègrent généralement les dernières versions des composants technologiques et réduisent ainsi la dette technique en matière de fonctionnalités de sécurité et de performances.

Par ailleurs, la migration vers le Cloud permet aussi de bénéficier du modèle économique propre à ce mode de delivery des services IT. Avec des coûts ajustés grâce à une configuration adaptée au plus juste.

Si on prend le cas d’un traitement ne nécessitant que quelques heures de calcul par jour, le Cloud permet d’allouer les ressources adéquates au besoin uniquement le temps nécessaire. Alors que, sur des architectures on-premise, il faudrait dimensionner l’infrastructure monopolisée par l’application pour ce pic de charge.

Le Cloud fournit encore une solution économiquement intéressante pour les besoins de tests et de développement. La location des infrastructures évite à l’entreprise des immobilisations et facilite l’arrêt de projets qui ne donneraient pas satisfaction.

Migration cloud : suivre le rythme technologique

Si le recours au Cloud public présente donc plusieurs avantages dans l’exploitation des environnements Big Data – dont une scalabilité intrinsèque assez rassurante pour des entreprises qui voient leurs volumes de données très souvent progresser à un rythme annuel supérieur à 20% -, le choix du PaaS impose à l’entreprise un minimum d’adaptation.

D’abord, la solution devra tenir compte des limites fonctionnelles et des rythmes des mises à jour des composants. Si une fonctionnalité d’un composant PaaS est mise à jour, ajoutée ou même supprimée, l’entreprise doit prendre ça en considération dans des délais impartis.

Ce niveau de dépendance à l’offre de l’éditeur et au rythme de son intégration par le prestataire de Cloud impose également à l’entreprise de conserver des compétences sur la technologie afin de suivre ses évolutions. Si l’opportunité offerte par le Cloud public apparaît, dans bon nombre de cas, intéressante, reste à trouver le bon timing pour effectuer la migration.

La fin du support de certains produits, la fin de vie d’équipements exploités dans l’architecture Big Data ou l’apparition de nouveaux besoins fonctionnels apparaissent comme des moments favorables à une transition vers le Cloud.

Mais la migration peut aussi être envisagée de façon plus graduelle, sans qu’aucun de ces facteurs déclencheurs ne se vérifie. Une approche alternative consiste à migrer ses systèmes Big Data en l’état sur des architectures IaaS, pour bénéficier immédiatement de la flexibilité du Cloud. L’avantage ? La modernisation des solutions pourra bénéficier d’une transition douce vers le PaaS, étant plus simple et moins couteuse. Et éviter, pour partie, de faire fonctionner deux systèmes complets en parallèle le temps de la transition. L’intégration partielle de composants PaaS à la solution peut se faire petit à petit, tout cela sans risque élevé pour la production et sans faire fonctionner deux systèmes en parallèle (avec les coûts qui en découlent).

L’opération peut exiger toutefois de sélectionner un unique fournisseur pour le IaaS et le PaaS, afin de réduire les problématiques liées à la latence du réseau et réduire le périmètre technique à maitriser par les intervenants.

> À LIRE AUSSI : 10 raisons d’une migration cloud dans un projet Big Data

 

Minimiser le volume de données à traiter

Une fois le timing arrêté, reste à définir la bonne stratégie de transition. Tout dépend du contexte de chaque entreprise. Il faut isoler les volumétries concernées par l’opération de migration, vérifier si le périmètre fonctionnel va évoluer ou pas, valider avec l’entreprise la limitation de la migration aux seules données actives, etc. Avant tout, la priorité est de répondre à un besoin exprimé par l’entreprise. Si celui-ci peut être couvert en minimisant le volume de données à migrer, c’est encore mieux.

Autre approche : ne migrer, dans un premier temps, que le jeu de données strictement nécessaire au démarrage, avant de compléter ces informations dans un second temps, grâce aux services de transfert de gros volumes de données que proposent les fournisseurs de Cloud (comme AWS Snowball Edge, Azure Data Box ou GCP Transfer Appliance).

Une façon de réduire les risques tout en diminuant les coûts associés à la migration de données dans le Cloud. Par ailleurs, on conseille d’aborder l’opération en deux grandes étapes. En commençant par un transfert à fonctionnalités constantes dans le IaaS, avant de lancer la modernisation du système. Ce qui permet de réduire les risques de la migration et de faciliter les tests d’intégration. Si, avec le Cloud, les entreprises peuvent avoir l’impression de se débarrasser d’une bonne partie de la complexité technologique, elles n’en doivent pas moins continuer à maîtriser les environnements qu’elles externalisent sur AWS, Azure ou GCP (Google Cloud Platform).

En plus des compétences fonctionnelles sur le Big Data, les architectes en infrastructures doivent veiller aux aspects relatifs à la gestion des identités, à la sécurité, au réseau ou au stockage. Sans oublier des compétences nouvelles spécialisées dans la gestion des coûts des services IaaS, PaaS et SaaS. Le modèle de gestion est différent avec le Cloud : la DSI doit développer une vision intégrée des services qu’elle opère, ce qui représente un changement majeur par rapport aux organisations en silos, tandis que les métiers doivent comprendre la nature radicalement différente des infrastructures sur lesquelles tournent les services qu’ils exploitent.

Profiter du cloud public et de ses à-côtés

Les Cloud publics offrent non seulement des environnements Big Data managés, mais également un ensemble de services connexes simplifiant l’exploitation de ces environnements et réduisant les investissements et leurs coûts opérationnels.

Par exemple en matière de sauvegarde, de supervision ou de sécurité. Les entreprises doivent apprendre à profiter des services que proposent les fournisseurs de Cloud public, pour se concentrer sur les tâches à valeur ajoutée. L’étude de la pertinence de ces services périphériques est d’autant plus indispensable que, dans sa transition vers le Cloud, une entreprise peut se trouver confrontée à des problématiques de support sur certains des outils qu’elle exploitait jusqu’alors.

Beaucoup de solutions ne sont pas supportées en environnement Cloud. Certes, l’outil se révèle compatible avec l’environnement technique, mais on risque de ne pas être couvert par le support éditeur ou le mode de licensing. Pour éviter de se retrouver confronté à une telle difficulté, une analyse de l’existant, offrant une vision globale des outils exploités avec toutes leurs dépendances, est indispensable avant toute migration.

Migrer vers le cloud sans mettre en péril le cloud hybride

Si le recours au Cloud public présente des intérêts évidents pour le Big Data, il faut garder à l’esprit que cette migration vient s’insérer, très souvent, dans des politiques de cloud hybride et même multicloud. De plus en plus les entreprises ne font pas le choix d’un seul fournisseur de services Cloud qu’il soit privé ou public -, mais d’une pluralité d’environnements Cloud et même on-premise.

Une approche qui s’explique notamment par la volonté des entreprises de garder la maîtrise de leurs données sensibles tout en bénéficiant des atouts du Cloud public pour les projets innovants. Mais ce choix recouvre aussi des logiques financières. Par exemple, conserver un historique de données sur des architectures déjà amorties.

Cette logique de multicloud et d’hybridation des infrastructures, qui porte en elle la volonté des entreprises de ne plus se laisser enfermer par un fournisseur donné – fut-il sur le Cloud -, vient interroger la logique du PaaS, qui, sur le papier, lie une entreprise à un environnement donné.

L’arrivée de la Dockerisation, autrement dit l’utilisation de conteneurs applicatifs, facilite le transfert d’un environnement Cloud à l’autre, d’autant que ces offres sont elles-mêmes accessibles en mode PaaS. Une passerelle qui permet de réduire les coûts d’un éventuel déplacement d’un Cloud à l’autre. Sans toutefois les annuler totalement

 

Livre Blanc

Mise en œuvre d'une stratégie 
de qualité des données 

Livre Blanc

Feuille de route d'une stratégie
de Data Management 

Baromètre annuel de la data

Les priorités des décideurs
data en 2022 

Share This