À quoi sert ce node ?
Le node LLM (Large Language Model) permet de générer, transformer et analyser du texte à l’aide de modèles IA comme GPT, Claude ou Gemini. C’est la base des workflows pilotés par l’IA. Usages courants :- Générer du contenu (articles, résumés, e-mails)
- Analyser et extraire des informations
- Transformer des formats de texte
- Répondre à des questions sur des données
Configuration rapide
Configuration

Champs obligatoires
Le prompt qui indique à l’IA quoi faire. C’est le champ le plus important.Conseils pour de bonnes instructions :
- Soyez précis sur ce que vous voulez
- Donnez du contexte et des exemples
- Précisez le format de sortie
- Utilisez des variables pour inclure des données dynamiques
Champs optionnels
Définit la persona et le contexte de comportement de l’IA.Exemple :
Paramètres IA
Le modèle IA à utiliser.
| Modèle | Idéal pour | Vitesse | Coût |
|---|---|---|---|
| GPT | Tâches complexes, raisonnement | Moyenne | Élevé |
| Claude | Contenu long, nuance | Moyenne | Moyen |
| Gemini | Intégration Google | Rapide | Moyen |
Contrôle le caractère aléatoire de la sortie.
| Valeur | Comportement |
|---|---|
| 0,0–0,3 | Concentré, cohérent |
| 0,4–0,6 | Équilibré (par défaut) |
| 0,7–1,0 | Créatif, varié |
Longueur maximale de la réponse en tokens.
- 500 tokens ≈ 375 mots
- 1000 tokens ≈ 750 mots
- 4000 tokens ≈ 3000 mots
Définir un schéma JSON pour obtenir une sortie structurée.Exemple :
Sortie
Le node renvoie la réponse de l’IA :{{LLM_0.response}}
Exemples
Résumé de contenu
Instructions :Extraction de données
Instructions :Génération de contenu
Instructions :Bonnes pratiques
Rédiger des prompts efficaces
- Bien
- Mal
Utiliser les messages système
Définir le contexte pour de meilleurs résultats :Demander une sortie structurée
Pour un traitement dans les nodes suivants, demandez du JSON :Gérer le contenu long
Pour un contenu qui peut dépasser la limite de tokens :- Découper le contenu avant envoi
- Traiter les morceaux séparément
- Fusionner les résultats
Problèmes courants
La réponse est coupée
La réponse est coupée
Augmentez
max_output_tokens. La valeur par défaut peut être trop basse pour les sorties longues.La sortie JSON est invalide
La sortie JSON est invalide
- Utilisez un schéma JSON dans les paramètres
- Ajoutez « Retourne uniquement du JSON valide » dans les instructions
- Baissez la température pour un formatage plus cohérent
Les résultats sont trop aléatoires
Les résultats sont trop aléatoires
Baissez la température (0,2–0,4) pour des sorties plus cohérentes.
La réponse ne suit pas les instructions
La réponse ne suit pas les instructions
- Soyez plus précis dans vos instructions
- Ajoutez des exemples de sortie attendue
- Utilisez un message système pour définir le contexte

