preloader

ETL

Bonnes pratiques pour un pipeline de données : de la donnée brute à l'analyse

Bonnes pratiques pour un pipeline de données : de la donnée brute à l'analyse

Un pipeline de données déplace des données depuis une ou plusieurs sources, à travers une série de transformations, vers une destination où elles peuvent être analysées ou servies. Bien le concevoir dès le départ évite d’innombrables heures de débogage.

Le modèle ETL

La plupart des pipelines suivent le modèle Extraire → Transformer → Charger (ETL) :

  1. Extraire — récupérer les données depuis les sources (bases de données, API, fichiers)
  2. Transformer — nettoyer, valider, reformater et enrichir les données
  3. Charger — écrire le résultat vers une destination (entrepôt de données, tableau de bord, fichier)

Une variante, ELT, charge d’abord les données brutes puis les transforme dans la destination — pratique courante avec les entrepôts cloud comme BigQuery.