Url
Une entrée pour recevoir une ou plusieurs URL(s) afin de lancer le workflow
À quoi sert ce node ?
Crée un champ de saisie d’URL que les utilisateurs renseignent lors de l’exécution du workflow. Prend en charge une ou plusieurs URL pour le scraping web, les appels API, l’analyse de contenu, etc.
Configuration
label string required Libellé affiché pour le champ de saisie d’URL.
placeholder string Texte d’indication affiché lorsque le champ est vide (ex. « https://example.com »).
default_value string Valeur d’URL pré-remplie par défaut.
multiple boolean default: false Autoriser la saisie de plusieurs URL.
required boolean default: true Indique si le champ doit être obligatoirement rempli.
Sortie
{
"value": "https://example.com/page"
}
Pour plusieurs URL :
{
"value": [
"https://example.com/page1",
"https://example.com/page2"
]
}
Accéder à la valeur
Utilisez {{Url_0.value}} dans les autres nodes pour accéder à la saisie d’URL. Pour plusieurs URL, parcourez le tableau.
Exemples
Workflow de scraping web
Extraire le contenu des URL fournies :
graph LR
A[Url: Target Website] --> B[Web Scraper]
B --> C[Content Extractor]
C --> D[Data Storage]
Analyse SEO
Analyser plusieurs URL pour le SEO :
graph LR
A[Url: Website URLs] --> B[SEO Analyzer]
B --> C[Meta Tag Extractor]
C --> D[Report Generator]
Surveillance de contenu
Surveiller et suivre les changements sur des URL :
graph LR
A[Url: Pages to Monitor] --> B[Content Fetcher]
B --> C[Change Detector]
C --> D[Alert System]
Traitement par lot d’URL
Traiter plusieurs URL en parallèle :
graph LR
A[Url: URL List] --> B[URL Validator]
B --> C[Parallel Scraper]
C --> D[Data Aggregator]
D --> E[Export Results]