Mission
Refonte et industrialisation de la plateforme data (cloud) pour alimenter la BI, le reporting financier et des cas d’usage analytics temps réel.
Responsabilités principales :
Concevoir et industrialiser des pipelines batch & stream (ingestion → traitement → exposition).
Développer en Python / SQL ; orchestrer avec Airflow (DAGs) ou Azure Data Factory.
Mettre en place la qualité de données (tests, alertes) — ex. Great Expectations.
Modéliser un DWH (star/snowflake) et/ou Lakehouse (dbt, Databricks).
CI/CD (GitHub Actions / GitLab CI), packaging, tests, revues de code.
IaC (Terraform) + bonnes pratiques sécurité/cost control (tags, budgets, secrets).
Documentation, runbooks d’exploitation, transfert de compétences.
Collaboration étroite avec Produits, BI/Finance, Sécurité et Ops.
Environnement de référence (au choix selon profil)
AWS : S3, Glue, Lambda, EMR, Athena, MSK (Kafka)
ou Azure : ADLS, Data Factory, Databricks, Synapse, Event Hubs
Outillage : dbt, Airflow, Kafka, Docker, Terraform, Git, Great Expectations
Profil recherché
5+ ans en Data Engineering (projets prod à l’échelle).
Maîtrise Python, SQL, orchestration (Airflow/ADF), modélisation (DWH/Lakehouse).
Cloud AWS ou Azure (au moins un en profondeur).
CI/CD et Infrastructure as Code (Terraform).
Bonnes pratiques : performance, sécurité (KMS/Key Vault, IAM), observabilité (logs/metrics).
Soft skills : autonomie, pédagogie, communication client, esprit produit.
Plus : Databricks, Snowflake, Kafka avancé, Kubernetes, dbt tests.