Indépendants, freelances, dirigeants : nos applications sont gratuites pour démarrer — facturation, KPI & simulations.

Ingénieur Data (AWS/Azure) — Data Pipelines & BI

Grand Compte Retail · Paris / Remote (3j TT / 2j site) · Freelance

Mission

Refonte et industrialisation de la plateforme data (cloud) pour alimenter la BI, le reporting financier et des cas d’usage analytics temps réel.

Responsabilités principales :

Concevoir et industrialiser des pipelines batch & stream (ingestion → traitement → exposition).

Développer en Python / SQL ; orchestrer avec Airflow (DAGs) ou Azure Data Factory.

Mettre en place la qualité de données (tests, alertes) — ex. Great Expectations.

Modéliser un DWH (star/snowflake) et/ou Lakehouse (dbt, Databricks).

CI/CD (GitHub Actions / GitLab CI), packaging, tests, revues de code.

IaC (Terraform) + bonnes pratiques sécurité/cost control (tags, budgets, secrets).

Documentation, runbooks d’exploitation, transfert de compétences.

Collaboration étroite avec Produits, BI/Finance, Sécurité et Ops.

Environnement de référence (au choix selon profil)

AWS : S3, Glue, Lambda, EMR, Athena, MSK (Kafka)

ou Azure : ADLS, Data Factory, Databricks, Synapse, Event Hubs

Outillage : dbt, Airflow, Kafka, Docker, Terraform, Git, Great Expectations

Profil recherché

5+ ans en Data Engineering (projets prod à l’échelle).

Maîtrise Python, SQL, orchestration (Airflow/ADF), modélisation (DWH/Lakehouse).

Cloud AWS ou Azure (au moins un en profondeur).

CI/CD et Infrastructure as Code (Terraform).

Bonnes pratiques : performance, sécurité (KMS/Key Vault, IAM), observabilité (logs/metrics).

Soft skills : autonomie, pédagogie, communication client, esprit produit.

Plus : Databricks, Snowflake, Kafka avancé, Kubernetes, dbt tests.