Ingénieur Data H/F

La data vous passionne ? Les thématiques autour de l’énergie aussi ? Alors nous avons un sujet pour vous !

Nous recherchons un(e) Ingénieur(e) Data pour l’un de nos clients figurant parmi les premiers fabricants mondiaux d’équipements de distribution électrique basse et moyenne tension, d’automatismes industriels et d’équipements d’énergie sécurisée.

Un contexte à l’état de l’art !

Dans un contexte international (US, France, Inde) vous intégrerez une équipe ayant pour objectif d’assimiler, de stocker et de préparer la donnée pour des usages autour de l’IA et de l’analytics.

Vous serez rattaché(e) au département intelligence artificielle qui accompagne les métiers de notre client dans le traitement de grandes quantités de données IoT issues de leurs offres dans le domaine de la gestion de l’énergie et des automatismes industriels et dans le développement de nouveaux services à valeur ajoutée grâce à des composants ou modèles analytiques complexes.

Le département en question a récemment ouvert un programme visant à construire et à exploiter une « Data Factory » afin de :

– Transformer les données en informations

– Augmenter l’utilisabilité des données pour les offres de notre client

– Permettre des services de données par le biais d’API et de jeux de données publiés dans les plateformes de données ouvertes et fermées de notre client

.

Mission :

L’ingénieur Data contribuera au programme Data Factory, en se concentrant et en fournissant un soutien dédié à l’équipe de la bibliothèque de transformation des données.

Nous recherchons donc un(e) professionnel(le) des données avec une expérience pratique dans la construction de pipelines de traitement de données à l’échelle de l’entreprise, avec une connaissance approfondie du traitement des données et une appétence à transformer les données en informations exploitables.

Principales réalisations :

– Construire et maintenir des pipelines batch et streaming sur l’environnement Azure Cloud (Azure Data Factory, Azure Databricks, …) en utilisant Spark, Python, SQL.

– Construire des bibliothèques de transformation de données pour le nettoyage, l’agrégation, l’anonymisation et l’enrichissement des séries temporelles.

– Concevoir, mettre en œuvre et déployer de nouveaux modèles de données et processus de données.

– Rédiger du code de haute qualité, en participant activement aux revues de code.

– Mettre en œuvre des tests d’intégrité des données pour garantir l’exactitude des données à tous les niveaux.

– Effectuer des tests unitaires, des tests d’intégration et des tests système.

 Traduire les exigences commerciales en tâches de données réalisables.

– Rédiger des spécifications et de la documentation techniques.

Compétences :

 Solides compétences en programmation pour le traitement des données (Spark, Python).

– Expérience des techniques et outils ETL et de l’analyse des données.

– Traitement des séries chronologiques et IoT.

– Expérience du cycle de vie complet du développement logiciel, y compris les normes de codage, les revues de code, la gestion du contrôle de la source, CI/CD, les tests d’automatisation.

– Expérience dans un environnement basé sur Agile/Scrum.

– Une expérience avec les outils/technologies Azure est un plus : Azure Data Factory, Azure Databricks, Azure Data Lake Storage.

– Familiarité avec les techniques de modélisation des données.

– Connaissance des systèmes de bases de données.

 

Prérequis :

Formation d’école d’ingénieur ou équivalent Bac +5

Première expérience professionnelle similaire

L’anglais (parlé et écrit) est obligatoire.

Curieux, autonome, analytique et enthousiaste à l’idée de jouer avec les données.