Agregio : du post-it à la construction d’un vertical

Agregio est une filiale d’EDF créé en 2017 que nos équipes ont accompagnée dès sa création. Nous avons contribué à l’apport des savoir-faire technologiques mais également organisationnels et de gestion d’équipes techniques. La culture d’expertise et le mindset d’innovation de Capgemini ont permis de définir la trajectoire du système d’information et suivre son implémentation au fil des années.

Agregio est l’agrégateur de référence en France. Il se charge d’agréger l’électricité produite par ses clients producteurs d’énergie renouvelable pour la revendre sur les marchés de l’électricité, Agregio agrège également des flexibilités c’est-à-dire la capacité qu’ont des producteurs ou des consommateurs d’électricité à moduler leur production ou leur consommation en fonction des besoins du marché. Son système d’information est son principal actif. La réalisation de produits technologiques constitue le moteur de son activité. Cela permet, entre autres, de contrôler les différents parcs de production de ses clients mais aussi de capter des diverses données de mesures.

Le produit majeur d’Agregio est une centrale virtuelle de production (Virtual Power Plant) agrégeant de nombreuses sources physiques de production/flexibilité. Cette plateforme assure l’interface vis-à-vis du régulateur RTE et participe ainsi à l’équilibre du réseau électrique français et européen.

Architecture Agile : cloud et conviction

L’accompagnement de Capgemini avait pour but premier de définir l’architecture de la VPP. Les enjeux opérationnels et concurrentiels nécessitant une mise en œuvre rapide, l’emploi d’un fournisseur de Cloud Public – Amazon Web Services (AWS) – et d’une architecture micro-services se sont rapidement imposés pour obtenir le Time-To-Market attendu.

Les premiers développements ont démarré en mai 2017, pour une mise en production en octobre de la même année et un lancement commercial du service au 1 janvier 2018 (24/24 7/7).

Le choix d’une technologie cloud lors de la création d’une nouvelle activité se justifie par sa rapidité de mise en œuvre (Infrastructure as code, Devops) et ses capacités d’ajustement pour accompagner la croissance d’un métier. La flexibilité, permettant de délivrer des fonctionnalités en cours de définition, est aussi un argument fort.

Construire l’ensemble de sa plateforme avec le cloud d’Amazon Web Services (AWS) a permis de délivrer une première version en 4 mois et d’être au rendez-vous des enjeux business.

Par ailleurs, la croissance du portefeuille client a engendré des contraintes de scalabilité technique : doublement des volumes de données échangées (chaque année), nombreux degrés de liberté pour implémenter de nouveaux usages. Ces contraintes ont été largement absorbées par l’utilisation des services managés  Amazon Web Services (AWS) qui sont nativement scalables et interopérables (IOT, S3, SQS/SNS, Sagemaker, Fargate, …).

La gamme des services managés d’Amazon Web Services (AWS) a rejoint également l’ambition de réalisation des équipes de développement dans cet environnement. Cela a été un moteur important dans la motivation des équipes techniques.

Enfin ce choix stratégique a été à l’origine d’une très bonne performance opérationnelle, indispensable dans une activité en service continu. Le très faible volume d’incidents a permis de concentrer l’énergie et les investissements sur les innovations et la création de valeur.

Intégré a une simple équipe Scrum au début du projet, ce choix d’architecture a révélé toute sa puissance lors du passage à l’échelle de l’organisation, rendant possible les designs émergents proposés par les équipes.

API, IOT et protocoles : mon éolienne a la parole

Les clients d’Agregio sont impliqués dans la vente de leur capacité de production et de soutirage d’électricité. Les APIs répondent aux différents besoins d’échanges, que ce soit :

  • Au niveau terrain (les parcs éolien, solaire, …)
  • Au niveau marché (le trading, le régulateur)
  • Au niveau de prévisions

L’usage de l’IOT et des systèmes embarqués reste un incontournable pour adjoindre des capacités de communications à du patrimoine physique géré par des systèmes industriels.

Tout d’abord les modules de conversion des protocoles industriels (Modbus, DLMS/COSEM, OPCUA, TIC,…)  ont été développés pour interfacer la Virtual Power Plant avec les systèmes industriels. Cela permet le pilotage des actionneurs (arrêter un parc, définir une consigne,…) et la collecte des mesures physiques (taux de charge d’une batterie, vitesse du vent, puissance produite, fréquence du réseau).

La mise en œuvre d’un broker de messages (MQTT) permet de couvrir le besoin de communications bidirectionnelles, asynchrones et géographiquement distribués qui sont ainsi facilitées.

Enfin l’utilisation de modèles de données standardisés (IEC 61850) ajoute le degré d’abstraction nécessaire à la virtualisation des assets et à l’interopérabilité des APIs.

Algorithmes et séries temporelles : ma donnée est intelligente

La production d’électricité provenant des énergies renouvelables est, par définition, intermittente et soumise aux aléas climatiques. L’optimisation des prix marchés requiert la meilleure prévision de production possible. Or, celles-ci reposent largement sur l’enrichissement de données telles que les télémesures, qui sont indispensables pour proposer les modèles les plus précis.

Les solutions sont alors :

  • L’intégration de prévisions fournies par des partenaires spécialistes présents dans le groupe EDF
  • L’encapsulation et l’utilisation d’algorithmes développés par des équipes de R&D externes
  • Le développement de modèles exploitant les données provenant des parcs.

Pour implémenter ces solutions, l’utilisation des API (API Gateway), du Function-As-A-Service (les lambdas) et le système d’entrainement et déploiement d’algorithmes (Sagemaker) a permis de :

  • Prévoir la production hydraulique d’un barrage
  • Déterminer une prévision de l’occurrence de prix négatifs sur les marchés
  • De détecter l’indisponibilité d’un parc

Pour, in fine, arbitrer les positions sur le marché et piloter le patrimoine dont Agregio à la charge.

Agregio et Capgemini : une aventure et un succès

Le partenariat entre deux leaders (EDF et Capgemini) a permis l’émergence d’un nouveau leader sur son marché. Agregio agrège une puissance de plus de 4 GW sur plusieurs milliers de sites ce qui représente l’équivalent de 4 tranches nucléaires.

Plus de 3 millions de données de prévisions ou de mesures transitent dans le système d’information pour alimenter les systèmes temps réel (la Virtual Power Plant), des algorithmes de régulation et un Data Lake stockant 4 ans d’activité.

Le métier d’Agregio et le contexte réglementaire évoluant en permanence, rendre l’architecture aussi adaptative que possible est le principal défi.

En tant qu’architecte Capgemini, ce type de projet met en œuvre toute la technicité de nos métiers, démontre nos capacités d’innovation mais surtout permet de prendre un réel plaisir à servir les ambitions d’un client. Participer à un projet avec une influence directe sur l’extension des énergies renouvelables apporte du sens à son engagement et donne envie de se lever tous les matins et de dire : j’adore mon job !

Auteur : Tanguy Charrier, Architecte, Capgemini France

Agregio : du post-it à la construction d’un vertical

Aller + loin

Guide de la transformation cloud

Digitalisez votre entreprise grâce au cloud et apportez performance et agilité à vos...