Workflow d'audit de contenu
Auditez automatiquement le contenu de votre site à grande échelle
Ce que vous allez créer
Un workflow qui audite automatiquement toutes les pages de votre site, analyse la qualité du contenu, les éléments SEO et fournit des recommandations pilotées par l’IA.
Temps de réalisation : 15 minutes
Nodes utilisés : Web Scraper, Loop, LLM, Google Sheets
Le problème
Les audits de contenu manuels prennent beaucoup de temps :
- Explorer des centaines ou des milliers de pages
- Extraire les titres, métadonnées, titres de sections
- Analyser la qualité du contenu
- Compiler les résultats dans une feuille de calcul
Ce workflow automatise l’ensemble du processus.
Vue d’ensemble du workflow
graph LR
A[Liste d'URLs] --> B[Loop]
B --> C[Web Scraper]
C --> D[LLM Analysis]
D --> E[Google Sheets]
Guide pas à pas
Étape 1 : Préparer votre liste d’URLs
Commencez par rassembler les URLs à auditer.
Option A : Utiliser une Google Sheet avec vos URLs
Option B : Extraire votre sitemap
Pour ce guide, nous utiliserons une Google Sheet avec les URLs dans la colonne A.
Étape 2 : Créer le workflow
- Cliquez sur New Workflow dans le Studio
- Nommez-le « Content Audit »
Étape 3 : Ajouter la source de données
Add Google Sheets Reader
Ajoutez un node Google Sheets pour récupérer votre liste d’URLs.
Configuration :
- Spreadsheet ID : l’ID de votre Google Sheet
- Range :
Sheet1!A:A
Étape 4 : Configurer la boucle
Add a Loop node
Ajoutez un node Loop pour traiter chaque URL.
Configuration :
- Items :
{{GoogleSheets_0.data}} - Max iterations : 100 (ou le nombre de vos pages)
Étape 5 : Extraire chaque page
Add Web Scraper
À l’intérieur de la boucle, ajoutez un node Web Scraper.
Configuration :
- URL :
{{Loop_0.currentItem.url}} - Content Type : Article
Le Web Scraper extrait :
- Le titre de la page
- La meta description
- Tous les titres (H1-H6)
- Le texte principal du contenu
- Le nombre de mots
Étape 6 : Analyser avec l’IA
Add LLM node
Ajoutez un node LLM pour l’analyse IA.
Configuration :
- Model : GPT ou Claude
- Instructions :
Analyze this webpage for SEO and content quality.
URL: {{$url}}
Title: {{$title}}
Meta Description: {{$metaDescription}}
Word Count: {{$wordCount}}
Content: {{$content}}
Provide:
1. SEO Score (1-10)
2. Content Quality Score (1-10)
3. Key Issues (bullet points)
4. Recommendations (bullet points)
Format as JSON:
{
"url": "",
"seo_score": 0,
"content_score": 0,
"issues": [],
"recommendations": []
} Étape 7 : Enregistrer les résultats
Add Google Sheets Writer
Ajoutez un node Google Sheets pour enregistrer les résultats.
Configuration :
- Spreadsheet ID : la feuille de résultats
- Range :
Results!A:F - Operation : Append
- Values :
[[
"{{url}}",
"{{seo_score}}",
"{{content_score}}",
"{{issues}}",
"{{$recommendations}}"
]] Workflow complet
Votre workflow final doit ressembler à ceci :
Google Sheets (URLs)
→ Loop
→ Web Scraper
→ LLM Analysis
→ Google Sheets (Results)
Exemple de sortie
| URL | SEO Score | Content Score | Issues | Recommendations |
|---|---|---|---|---|
| /blog/post-1 | 7 | 8 | Missing H2s, thin meta | Add subheadings, expand meta |
| /blog/post-2 | 9 | 6 | Content too short | Add 500+ words |
| /product/x | 5 | 7 | No schema, missing alt | Add product schema |
Options de personnalisation
Ajouter d’autres métriques
Extrayez des données supplémentaires :
H1 count: {{$h1Count}}
Image count: {{$imageCount}}
Internal links: {{$internalLinks}}
External links: {{$externalLinks}}
Utiliser l’analyse concurrentielle
Ajoutez un node Semrush pour comparer avec les pages les mieux classées :
graph LR
A[Web Scraper] --> C[LLM Compare]
B[Semrush Top URLs] --> C
C --> D[Results]
Vérifier les scores YourTextGuru
Ajoutez un scoring d’optimisation du contenu :
Loop → Web Scraper → YourTextGuru Score → LLM → Sheets
Bonnes pratiques
Limitation du débit
Lors de l’extraction de nombreuses pages :
- Ajoutez des délais entre les requêtes (2-3 secondes)
- Respectez le robots.txt
- Traitez par lots de 50 à 100
Gestion des erreurs
Ajoutez un node Conditional pour gérer :
- Les pages 404
- Les erreurs de timeout
- Le contenu vide
If WebScraper_0.status != 200
→ Log error and continue
Else
→ Process normally
Planification
Configurez des audits hebdomadaires :
- Allez dans Workflow Settings
- Activez Schedule
- Définissez une exécution hebdomadaire (ex. lundi 6 h)
Résultats attendus
| Métrique | Manuel | Avec Draft & Goal |
|---|---|---|
| Temps pour 100 pages | 8 heures | 15 minutes |
| Cohérence | Variable | 100 % |
| Insights IA | Aucun | Automatique |