FabricTools
fabrictools fournit des helpers PySpark orientés Microsoft Fabric pour lire et écrire dans les Lakehouses et Warehouses, préparer des données, construire des dimensions et appliquer des transformations courantes sur des DataFrame.
Dépôt et suivi :
Prérequis
Python
>= 3.9.Environnement Spark (typiquement un notebook Fabric) avec PySpark déjà disponible.
Pour un usage hors Fabric, installez l’extra
sparkdu paquet (voir ci-dessous).
Installation
Depuis PyPI (usage courant):
pip install fabrictools
Avec Spark et Delta en local:
pip install "fabrictools[spark]"
Option visualisation (graphiques pour le scan qualité):
pip install "fabrictools[visualization]"
Depuis le dépôt (développement):
pip install -e ".[spark]"
Pour générer cette documentation localement:
pip install -e ".[docs]"
Référence API
API recommandée : importez depuis le paquet racine, par exemple
from fabrictools import read_lakehouse, write_lakehouse. Sous Référence API,
« API publique » et les pages par domaine (I/O, Qualité, etc.) listent ces symboles ; la section Implémentation regroupe
les sous-packages Python pour contribuer ou déboguer.
Guides
- Premiers pas (5 minutes)
- Tutoriel : projet fictif NovaRetail
- Vue d’ensemble
- Étape 1 — Lire les ventes brutes
- Étape 2 — Nettoyer les données
- Étape 3 — Enrichir en métadonnées Silver
- Étape 4 — Écrire en Silver
- Étape 5 — Scanner la qualité
- Étape 6 — Fusion incrémentale (upsert)
- Étape 7 — Écriture dans un Warehouse
- Étape 8 — Pipeline préparé (table unique)
- Étape 9 — Pipeline préparé (bulk)
- Étape 10 — Dimensions pour reporting
- FAQ