Le coût total de possession (TCO) croissant de l’environnement décisionnel traditionnel, combiné au manque d’agilité et au temps de mise sur le marché élevé, a forcé un acteur clé du marché de l’assurance automobile et des services de dépannage à envisager de nouvelles options pour collecter, intégrer et traiter les données de manière rentable et agile. Lisez la suite pour voir comment nous avons créé une nouvelle solution qui non seulement répond à ces exigences, mais aide notre client à exploiter ses données dans le cloud à un tout autre niveau.

Quel était le défi qui nous a été présenté ?

Le coût total de possession (TCO) de l’environnement décisionnel traditionnel, combiné au manque d’agilité et au délai de mise sur le marché élevé, a obligé notre client à envisager de nouvelles options pour collecter, intégrer et traiter les données de manière rentable et agile.

C’est pourquoi ils se sont adressés aux experts de Lucy, pour les aider à mettre en œuvre un nouvel entrepôt de données d’entreprise basé sur le Cloud, afin de répondre aux exigences suivantes :

  • Construire une nouvelle plateforme de données agile.
  • Intégrer les données des systèmes existants (tels que SAP) avec les données des nouvelles sources (y compris Salesforce) de manière transparente.
  • Réduire considérablement le coût total de possession (TCO) de la BI/Big data.
  • Mettre en place les outils nécessaires pour passer à l’analyse avancée et aux capacités d’apprentissage automatique.

Notre solution : un entrepôt de données d’entreprise basé sur le cloud et alimenté par AWS

 

Nous avons mis en œuvre un nouveau Data Lake et Data Warehouse dans AWS, en utilisant Data Vault 2.0 comme méthodologie pour accélérer le processus d’intégration des données tout en assurant une traçabilité et une auditabilité complètes des données. Nous avons également mis en œuvre notre propre moteur DV 2.0 en utilisant la technologie AWS standard pour automatiser la saisie et l’intégration du DWH.

L’environnement de production est soutenu à distance par des experts de Lucy afin de s’assurer que les données sont livrées à temps tout en optimisant les coûts.
 

Architecture basée sur les services de données clés d’AWS

Data Lake

Amazon S3 est utilisé pour la couche centrale d’entrée et permet d’atteindre une durabilité à long terme. Les données vieillissantes sont poussées vers Amazon Glacier pour optimiser les coûts.

Data Warehouse

Le Data Warehouse de données fonctionne sur Amazon Redshift et suit la méthodologie Data Vault 2.0. Les objets Data Vault sont très standardisés et ont des règles de modélisation strictes, ce qui permet un haut niveau de standardisation et d’automatisation. Le modèle de données est généré à partir de métadonnées stockées dans une base de données Amazon RDS Aurora.

 Le moteur d’automatisation lui-même est orchestré à l’aide de fonctions Amazon StepFunctions et de fonctions Lambda.

Et bien plus encore !

La plateforme de données que nous avons construite pour cet acteur clé du marché de l’assurance automobile et des services de dépannage, croît rapidement et lui permet d’aborder toutes sortes de cas d’utilisation liés aux données.