Passer au contenu

Maîtriser et accélérer ses projets de migration data vers Google Cloud Platform (GCP)

Augustin Barrière & Mathieu Joly
3 novembre 2022

Les technologies data proposées par GCP séduisent plusieurs organisations en quête de transformation data-driven. Comment maîtriser les enjeux lors des migrations vers le cloud ? Quels « pièges » déjouer ?

Le cloud n’offre pas seulement des ressources virtuellement sans limites pour absorber des volumes de données qui ne cessent de croître. Il apporte aussi une souplesse technique et une qualité de service  inégalables. Ainsi, les métiers peuvent développer de nouveaux cas d’usage, les passer à l’échelle et créer plus rapidement de la valeur sans être bridés par les capacités restreintes d’un data center ou les procédures d’allocation de ressources de l’IT. Aussi, il ne faut pas négliger les avantages économiques du paiement à l’usage, avec, dans le cas particulier des données, la possibilité de découpler les ressources de stockage de la puissance de calcul… Ce qui change fondamentalement les approches à déployer pour une telle transformation.

À ces atouts communs à tous les grands cloud providers, Google Cloud Platform (GCP) ajoute une expérience de longue date dans le domaine du Big Data. Très tôt confronté à la croissance fulgurante de son activité, Google a développé pour son propre usage des outils novateurs, capables de brasser des quantités considérables de données. Aujourd’hui, à l’image de l’entrepôt de donnée BigQuery ou des algorithmes de reconnaissance vocale ou d’image, ces outils robustes font intégralement partie de l’offre GCP. Et ce que Google ne fait pas lui-même, il le propose au travers d’un très riche écosystème de partenaires, où l’on retrouve les solutions les plus en pointe sur l’ensemble du cycle de vie de la donnée.

Toutefois, malgré l’intérêt manifeste de porter dans le cloud leur infrastructure de données, certaines entreprises y sont encore réticentes, arrêtées par la complexité apparente de la migration. Or, il existe désormais des méthodes et des outils éprouvés pour maîtriser les coûts et la qualité de ces projets, et en accélérer les délais. Ceci est à la portée de toutes les entreprises, quelles que soient leur taille, leur secteur d’activité et leur maturité sur la data, à condition de procéder avec rigueur.

Comment savoir où j’atterris ? Les étapes de la démarche de migration

Analyser l’existant et maîtriser son patrimoine

Une fois que l’on a déterminé sa stratégie data, la première étape consiste à analyser l’existant. Cette phase concerne non seulement les données elles-mêmes (volumes, natures, formats, localisation…), mais aussi tout leur environnement : les traitements qu’elles subissent, les applications qu’elles alimentent, les connexions par lesquelles elles transitent, les règles internes qui les encadrent, les réglementations auxquelles elles doivent se conformer (RGPD notamment), les dispositifs qui les sécurisent. Maîtriser sa migration, c’est maîtriser l’ensemble de son patrimoine pour minimiser ses efforts et éviter les mauvaises surprises.

Définir la cible, préparer la migration et l’exécuter

Après avoir précisé le point de départ, il s’agit de définir la cible, soit l’architecture de données et ses composants, ainsi que le mode opératoire de la migration et l’outillage qui sera utilisé. Par exemple, lors de la migration d’un entrepôt de données vers BigQuery, il est indispensable de définir une cartographie complète pour les types de données, ainsi qu’une analyse sur les différences entre les deux entrepôts.

On s’appuiera volontiers sur les outils fournis par Google, comme Data Transfer Service (transfert des données) et Data Validation Tool (tests), qui permettent d’automatiser et de fiabiliser les tâches. Capgemini dispose également de ses propres outils d’analyse de code, qui permettent d’accélérer la migration et d’en abaisser le coût. Enfin, on définit la trajectoire de migration en planifiant et en lotissant les travaux, d’abord sur des périmètres limités avant leur généralisation.

Il est important de prendre en compte l’exhaustivité du patrimoine à migrer lors de la définition de la cible, afin de valider que les solutions choisies répondent à tous les cas d’utilisation. Et de faciliter l’exécution de la migration proprement dite, soit le transfert des données et des traitements, puis l’indispensable campagne de tests et la mise en production progressive – et en parallèle – jusqu’au décommissionnement des anciens systèmes.

Les facteurs de succès

Les projets majeurs menés par Capgemini autour de la data et de GCP nous ont permis d’identifier un des facteurs clés de succès. En premier lieu, il est impératif de garder à l’esprit qu’une telle migration n’est pas qu’une simple montée de version : il faut adapter l’infrastructure de données à son nouvel environnement, et bien prendre en compte les spécificités de ce dernier.

Il y aura donc des ajustements à réaliser afin de garder le même comportement qu’à l’origine. Afin de se prémunir de leurs éventuels impacts en cascade, il est par conséquent essentiel d’avoir une vision d’ensemble du patrimoine concerné. C’est tout l’enjeu du soin qu’il faut apporter à la phase de préparation.

Un autre aspect déterminant concerne la mise en œuvre de la migration, qu’il faut industrialiser et automatiser au maximum, en plus d’une approche de cybersécurité par design. Tout cela est indispensable à la bonne réalisation du projet ainsi qu’à la viabilité de la plateforme Data sur le long terme. On s’appuiera sur les outils d’automatisation évoqués plus haut, ainsi que sur les pratiques issues de DevOps : infrastructure as code (IaaC), pipeline d’intégration continue, tests automatisés, accélérateurs…

Enfin, en parallèle de la migration technique, il est important d’accompagner les conséquences du changement de plateforme et, en particulier, anticiper le passage au modèle de facturation à la demande. Pour suivre et piloter les dépenses, il est ainsi indispensable de mettre en place une démarche FinOps visant à maitriser les usages et dépenses liés à ce changement technologique majeur et permettant d’accélérer innovation tout en maîtrisant ses dépenses.

Une migration data vers le cloud est un projet majeur qui nécessite de s’appuyer sur une plateforme fiable, des outils et des méthodes éprouvés et un conseil expérimenté, capable d’accompagner la démarche de bout en bout, afin de permettre de concilier maîtrise et vitesse d’exécution, et ainsi de tirer au plus vite, et au maximum, les bénéfices de GCP pour ses initiatives data.

Découvrez des exemples de projets data s’appuyant sur les technologies Google Cloud Platform

Auteurs

Augustin Barrière

Architecte Solutions

Mathieu Joly

Architecte Solutions
    Pour aller plus loin

      Livre blanc : démocratiser la donnée pour créer de la valeur

      Les clés de la révolution data-centric

      Data et intelligence artificielle

      Maîtrisez vos données et transformez votre organisation.