Passer au contenu principal

À quoi sert ce node ?

Le node LLM (Large Language Model) permet de générer, transformer et analyser du texte à l’aide de modèles IA comme GPT, Claude ou Gemini. C’est la base des workflows pilotés par l’IA. Usages courants :
  • Générer du contenu (articles, résumés, e-mails)
  • Analyser et extraire des informations
  • Transformer des formats de texte
  • Répondre à des questions sur des données

Configuration rapide

1

Ajouter le node LLM

Trouvez-le dans la bibliothèque de nodes sous AI NodesLLM
2

Rédiger vos instructions

Indiquez à l’IA ce qu’elle doit faire. Soyez précis et clair.
3

Choisir un modèle

Sélectionnez parmi GPT, Claude, Gemini, etc.
4

Connecter et exécuter

Connectez les entrées et lancez votre workflow

Configuration

Panneau des paramètres du node LLM

Champs obligatoires

instructions
string
requis
Le prompt qui indique à l’IA quoi faire. C’est le champ le plus important.Conseils pour de bonnes instructions :
  • Soyez précis sur ce que vous voulez
  • Donnez du contexte et des exemples
  • Précisez le format de sortie
  • Utilisez des variables pour inclure des données dynamiques
Exemple :
Résume l’article suivant en 3 points.
Insiste sur les principaux enseignements pour les marketeurs.

Article :
{{content}}

Champs optionnels

system_message
string
Définit la persona et le contexte de comportement de l’IA.Exemple :
Vous êtes un consultant SEO senior. Donnez des recommandations
concrètes et actionnables basées sur les données.

Paramètres IA

model
string
défaut:"gpt-4o"
Le modèle IA à utiliser.
ModèleIdéal pourVitesseCoût
GPTTâches complexes, raisonnementMoyenneÉlevé
ClaudeContenu long, nuanceMoyenneMoyen
GeminiIntégration GoogleRapideMoyen
temperature
number
défaut:"0.6"
Contrôle le caractère aléatoire de la sortie.
ValeurComportement
0,0–0,3Concentré, cohérent
0,4–0,6Équilibré (par défaut)
0,7–1,0Créatif, varié
max_output_tokens
number
défaut:"1000"
Longueur maximale de la réponse en tokens.
  • 500 tokens ≈ 375 mots
  • 1000 tokens ≈ 750 mots
  • 4000 tokens ≈ 3000 mots
output_json_schema
object
Définir un schéma JSON pour obtenir une sortie structurée.Exemple :
{
  "summary": "string",
  "score": "number",
  "recommendations": ["string"]
}

Sortie

Le node renvoie la réponse de l’IA :
{
  "response": "Le texte généré ou la sortie JSON...",
  "model": "gpt-4o",
  "tokens_used": 523,
  "finish_reason": "stop"
}
Accéder à la réponse : {{LLM_0.response}}

Exemples

Résumé de contenu

Instructions :
Résume cet article en 3 points :

{{content}}

Garde chaque point sous 20 mots.
Sortie :
• Les outils IA transforment les workflows de contenu
• L’automatisation fait gagner 10+ heures par semaine
• L’intégration aux outils existants est fluide

Extraction de données

Instructions :
Extrais les informations suivantes de cette page entreprise :

{{content}}

Retourne en JSON :
{
  "company_name": "",
  "industry": "",
  "employee_count": "",
  "products": []
}
Sortie :
{
  "company_name": "Acme Technologies",
  "industry": "SaaS",
  "employee_count": "50-100",
  "products": ["Project Management", "Time Tracking"]
}

Génération de contenu

Instructions :
Écris un e-mail professionnel à {{contact_name}} chez {{company}}.

Contexte : {{meeting_notes}}

L’e-mail doit :
- Les remercier pour la réunion
- Résumer les points clés discutés
- Proposer les prochaines étapes
- Faire moins de 150 mots

Bonnes pratiques

Rédiger des prompts efficaces

Résume cet article en exactement 3 points.
Chaque point doit faire moins de 20 mots.
Insiste sur les enseignements actionnables pour les marketeurs.

Article :
{{content}}

Utiliser les messages système

Définir le contexte pour de meilleurs résultats :
Système : Vous êtes un analyste de données. Donnez toujours des chiffres
précis et citez vos sources. Utilisez un ton professionnel.

Demander une sortie structurée

Pour un traitement dans les nodes suivants, demandez du JSON :
Analyse ces données et retourne en JSON :
{
  "sentiment": "positive|negative|neutral",
  "confidence": 0-100,
  "key_phrases": ["...", "..."]
}

Gérer le contenu long

Pour un contenu qui peut dépasser la limite de tokens :
  1. Découper le contenu avant envoi
  2. Traiter les morceaux séparément
  3. Fusionner les résultats

Problèmes courants

Augmentez max_output_tokens. La valeur par défaut peut être trop basse pour les sorties longues.
  • Utilisez un schéma JSON dans les paramètres
  • Ajoutez « Retourne uniquement du JSON valide » dans les instructions
  • Baissez la température pour un formatage plus cohérent
Baissez la température (0,2–0,4) pour des sorties plus cohérentes.
  • Soyez plus précis dans vos instructions
  • Ajoutez des exemples de sortie attendue
  • Utilisez un message système pour définir le contexte

Nodes associés