Passer au contenu principal

Vue d’ensemble

Draft & Goal permet aux équipes data d’automatiser le reporting, de synchroniser les données entre systèmes et de construire des pipelines de données sans code.

Workflows data courants

Reporting automatisé

Générer des rapports selon une planification :
  • Récupérer les données de plusieurs sources
  • Transformer et agréger
  • Générer des insights avec l’IA
  • Distribuer par email ou Slack
Nodes utilisés : Google Analytics, BigQuery, LLM, Google Slides, Email

Synchronisation des données

Garder les systèmes synchronisés :
  • Exporter depuis le système source
  • Transformer le format des données
  • Charger dans la destination
  • Vérifier et enregistrer les résultats
Nodes utilisés : Google Sheets, Loop, BigQuery Writer

Enrichissement des données

Ajouter de la valeur aux données brutes :
  • Récupérer les enregistrements depuis la base
  • Enrichir avec des données externes
  • Appliquer une analyse IA
  • Réécrire les données enrichies
Nodes utilisés : BigQuery, Web Scraper, LLM, BigQuery Writer

Monitoring et alertes

Suivre les métriques et alerter sur les anomalies :
  • Interroger les métriques régulièrement
  • Comparer aux seuils
  • Détecter les anomalies
  • Envoyer des alertes
Nodes utilisés : Google Analytics, Conditional, LLM, Email Sender

Nodes data disponibles

Google Suite

NodeDescription
Google SheetsLire/écrire des feuilles de calcul
Google BigQuery ReaderInterroger l’entrepôt de données
Google BigQuery WriterInsérer des données dans BigQuery
Google AnalyticsDonnées d’analytics web
Google SlidesCréer des présentations

Transformation

NodeDescription
JSON Path ExtractorExtraire depuis du JSON
MergeRemplir des modèles avec des données
Find & ReplaceTransformer du texte
LoopTraiter des tableaux

APIs externes

NodeDescription
API ConnectorIntégrations API prêtes à l’emploi

Exemple : tableau de bord KPI hebdomadaire

Générer automatiquement un tableau de bord KPI hebdomadaire :

Ce que ça fait

  1. Récupérer les données depuis Analytics, BigQuery et HubSpot
  2. Fusionner dans un jeu de données unifié
  3. Analyser avec l’IA pour générer des insights
  4. Créer des slides avec graphiques et commentaires
  5. Envoyer par email aux parties prenantes automatiquement

Temps gagné

TâcheManuelAutomatisé
Collecte des données2 heures0
Analyse3 heures5 minutes
Création du rapport2 heures0
Distribution30 min0
Total7,5 heures5 minutes

Patterns de pipelines de données

ETL (Extract, Transform, Load)

Source → Extraction → Transformation → Chargement → Destination
Draft & Goal gère les trois étapes.

Pipelines événementiels

Webhook → Traitement → Mise à jour → Notification
Réagir aux événements en temps réel.

Traitement par lots planifié

Planification → Récupération du lot → Traitement → Sortie
Exécuter les opérations lourdes en dehors des heures de pointe.

Bonnes pratiques

Gestion des erreurs

Toujours gérer les échecs des pipelines de données :
  • Logger toutes les opérations
  • Alerter en cas d’échec
  • Mettre en place des retries
  • Prévoir des chemins de repli

Validation des données

Contrôler la qualité des données :
  • Vérifier les valeurs nulles
  • Valider les types de données
  • Valider les plages
  • Signaler les anomalies

Traitement incrémental

Pour les jeux de données volumineux :
  • Suivre le dernier timestamp traité
  • Ne récupérer que les nouveaux enregistrements
  • Maintenir l’état entre les exécutions

Pour commencer

1

Connectez vos sources de données

Configurez les intégrations Google, bases de données, APIs
2

Définissez votre sortie

Décidez où doivent aller les résultats (Sheets, BigQuery, etc.)
3

Construisez le pipeline

Connectez les nodes pour transformer les données
4

Planifiez l'exécution

Configurez les exécutions récurrentes

Prochaines étapes