Data Engineer GCP H/F
Référence de l’offre : ESENCA-02039
Que vous soyez expert, indépendant, salarié ou entreprise en recherche d’expertise nous trouverons ensemble la meilleure solution pour mener à bien tous vos projets IT. Apport d’affaires, portage salarial, infogérance, consulting IT : contactez-nous pour en découvrir davantage !
Et si vous étiez notre futur(e) Data Engineer ? Nous vous attendons chez ESENCA !
Descirpiton de la mission :
Intitulé du poste : Data Engineer
Objectif global du poste
Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management, en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales.
Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales.
Principaux livrables
-
Déploiement opérationnel du framework Data Management dans les produits digitaux
-
Élaboration de guides pratiques à destination des équipes produits
-
Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering
Missions principales
Le Data Engineer aura notamment pour responsabilités :
-
Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux
-
Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh
-
Mettre en œuvre des méthodes permettant d’améliorer :
-
la fiabilité
-
la qualité
-
la performance des données
-
l’optimisation des coûts (FinOps)
-
-
Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité
-
Assurer le respect des réglementations liées à la protection des données
-
Maintenir et faire évoluer la stack technique Data
-
Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production
-
Participer aux rituels agiles de l’équipe et contribuer à la veille technologique
Environnement technique
-
Cloud : Google Cloud Platform (GCP)
-
Data Warehouse : BigQuery
-
Orchestration : Airflow
-
Transformation : dbt
-
Streaming : Kafka
-
Stockage : GCS
-
Langages : SQL, Shell
-
Bases de données : SQL / NoSQL
-
DevOps : CI/CD, Git, data pipelines
Méthodologie
-
Travail en méthodologie Agile
-
Gestion de version avec Git
-
Participation active aux rituels d’équipe
Langues
-
Français : courant
-
Anglais : professionnel (impératif)
⚠️ Compétences obligatoires (indispensables pour ce poste)
Les candidats doivent impérativement maîtriser les compétences suivantes :
-
BigQuery (Google Cloud Platform) – niveau confirmé
-
Orchestration de pipelines de données (ex : Airflow) – niveau confirmé
-
Transformation de données (ex : dbt) – niveau confirmé
-
Architecture Data Mesh / Data Product – niveau confirmé
-
SQL et modélisation de données
-
Environnement Google Cloud Platform (GCP)
-
Gestion de pipelines de données et pratiques DevOps (CI/CD)
-
Anglais professionnel
Profil recherché
-
Expérience significative en Data Engineering (minimum 3 ans)
-
Solides connaissances des bases de données et systèmes distribués
-
Expérience dans la conception et la gestion de pipelines de données
-
Bonne maîtrise des plateformes de streaming et traitement de flux (Kafka)
-
Capacité à travailler dans un environnement cloud et data moderne
-
Expérience dans des environnements produits digitaux appréciée
Compétences transverses
-
Collaboration avec des équipes techniques et métiers
-
Communication claire et pédagogique
-
Capacité à documenter les solutions et standards techniques
-
Esprit d’analyse et résolution de problèmes
🟠 Vous vous reconnaissez dans cette opportunité et l'aventure au sein de ESENCA vous tente ? N'hésitez plus et rejoignez-nous ! 🟠