À quoi sert ce node ?
Le node Web Scraper récupère et extrait le contenu de n’importe quelle page web. C’est l’un des nodes les plus utilisés pour collecter des données depuis des sites, que ce soit pour l’analyse de contenu, la collecte de données ou la recherche. Utilisations courantes :- Extraire le contenu d’articles pour une analyse par IA
- Récupérer des informations produits
- Collecter des données concurrentes
- Constituer des jeux de données de contenu
Configuration rapide
Configuration
Champs obligatoires
L’URL de la page web à scraper.Exemples :
- Statique :
https://example.com/article - Dynamique :
{{Text_0.value}}(depuis une entrée) - Depuis une boucle :
{{Loop_0.currentItem.url}}
Champs optionnels
Modèle d’extraction prédéfini pour les types de pages courants.
| Modèle | Extrait |
|---|---|
| No Template | Contenu brut de la page |
| Article | Titre, auteur, date, corps, images |
| ArticleList | Liste de liens d’articles avec titres |
| Product | Nom, prix, description, spécifications |
| ProductList | Liste de produits avec détails |
Expression XPath personnalisée pour une extraction ciblée.Exemples :
- Contenu principal :
//articleou//div[@class='content'] - Tous les paragraphes :
//p - Élément spécifique :
//div[@id='main-text']
Deuxième XPath pour une extraction supplémentaire.
Troisième XPath pour une extraction supplémentaire.
Sortie
Le node renvoie le contenu extrait :Accéder à la sortie
Exemples
Extraction de contenu basique
URL :https://blog.example.com/seo-tips
Sortie :
Modèle Article
Content Type : Article Sortie enrichie :Extraction XPath personnalisée
XPath 1 ://div[@class='pricing']//span[@class='price']
Extrait : Tous les éléments de prix de la section tarifs
Schémas courants
Scraper et analyser
Scraping en lot
Comparaison de contenu
Référence XPath
Sélecteurs courants
| Objectif | XPath |
|---|---|
| Tous les paragraphes | //p |
| Tous les liens | //a |
| Par classe | //div[@class='content'] |
| Par ID | //div[@id='main'] |
| Contient une classe | //div[contains(@class, 'article')] |
| Tag + classe | //article[@class='post'] |
| Imbriqué | //div[@class='content']//p |
Extraire un contenu spécifique
| Objectif | XPath |
|---|---|
| Corps d’article | //article ou //main |
| Navigation | //nav |
| En-tête | //header |
| Pied de page | //footer |
| Toutes les images | //img/@src |
| URLs des liens | //a/@href |
Bonnes pratiques
Respecter les sites
- Vérifiez robots.txt avant de scraper
- Ajoutez des délais de 2 à 3 secondes entre les requêtes
- Ne surchargez pas les serveurs avec des requêtes rapides
- Identifiez votre scraper avec un user-agent approprié
Gérer les erreurs proprement
Utilisez des nodes Conditional pour vérifier les erreurs :Optimiser pour le traitement par IA
Convertissez le HTML en Markdown avant de l’envoyer au LLM : Les modèles IA fonctionnent mieux avec du Markdown propre qu’avec du HTML brut.Problèmes courants
Le contenu est vide
Le contenu est vide
- La page peut nécessiter JavaScript (non pris en charge)
- Vérifiez que l’URL est correcte et accessible
- Essayez d’autres sélecteurs XPath
- La page peut bloquer les scrapers
Mauvais contenu extrait
Mauvais contenu extrait
- Utilisez un XPath précis pour cibler le bon élément
- Essayez le modèle Article pour les articles de blog
- Vérifiez s’il y a plusieurs éléments correspondants
Requête bloquée ou erreur 403
Requête bloquée ou erreur 403
- Le site peut bloquer les requêtes automatisées
- Essayez d’ajouter des délais entre les requêtes
- Consultez robots.txt pour les restrictions
Le contenu est illisible
Le contenu est illisible
- La page peut avoir un encodage inhabituel
- Essayez le node HTML Cleaner après le scraping
- Utilisez HTML to Markdown pour un texte propre

