top of page

Description
Accompagnement projet dans les différentes étapes de build de plateformes (datalake, dashboards, …)
Conception et maintien des pipelines d'ingestion et traitement de données (cycle de vie de la donnée)
Responsable de l'industrialisation des cas d'usage
Développement de briques ETL, transformation de flux batch et temps réel
Création de modèle de données,
Maitrise de l'usage des services GCP essentiels (Big query, Compute, Storage, ...)
Framework Spark (pySpark, Scala), Bases de données, SQL, NoSQL
Pandas et scikit-learn, Utilisation de Airflow
ETL/ELT, Api REST, Docker, Scripting Python et Shell
bottom of page