Ouvrir le Studio

LLM

Générez et transformez du texte avec des modèles de langage puissants

À quoi sert ce node ?

Le node LLM (Large Language Model) permet de générer, transformer et analyser du texte à l’aide de modèles IA comme GPT, Claude ou Gemini. C’est la base des workflows pilotés par l’IA.

Usages courants :

  • Générer du contenu (articles, résumés, e-mails)
  • Analyser et extraire des informations
  • Transformer des formats de texte
  • Répondre à des questions sur des données

Configuration rapide

Ajouter le node LLM

Trouvez-le dans la bibliothèque de nodes sous AI NodesLLM

Rédiger vos instructions

Indiquez à l’IA ce qu’elle doit faire. Soyez précis et clair.

Choisir un modèle

Sélectionnez parmi GPT, Claude, Gemini, etc.

Connecter et exécuter

Connectez les entrées et lancez votre workflow

Configuration

Panneau des paramètres du node LLM

Champs obligatoires

instructions string required

Le prompt qui indique à l’IA quoi faire. C’est le champ le plus important.

Conseils pour de bonnes instructions :

  • Soyez précis sur ce que vous voulez
  • Donnez du contexte et des exemples
  • Précisez le format de sortie
  • Utilisez des variables pour inclure des données dynamiques

Exemple :

Résume l’article suivant en 3 points.
Insiste sur les principaux enseignements pour les marketeurs.

Article :
{{content}}

Champs optionnels

system_message string

Définit la persona et le contexte de comportement de l’IA.

Exemple :

Vous êtes un consultant SEO senior. Donnez des recommandations
concrètes et actionnables basées sur les données.

Paramètres IA

model string default: gpt-4o

Le modèle IA à utiliser.

ModèleIdéal pourVitesseCoût
GPTTâches complexes, raisonnementMoyenneÉlevé
ClaudeContenu long, nuanceMoyenneMoyen
GeminiIntégration GoogleRapideMoyen
temperature number default: 0.6

Contrôle le caractère aléatoire de la sortie.

ValeurComportement
0,0–0,3Concentré, cohérent
0,4–0,6Équilibré (par défaut)
0,7–1,0Créatif, varié
max_output_tokens number default: 1000

Longueur maximale de la réponse en tokens.

  • 500 tokens ≈ 375 mots
  • 1000 tokens ≈ 750 mots
  • 4000 tokens ≈ 3000 mots
output_json_schema object

Définir un schéma JSON pour obtenir une sortie structurée.

Exemple :

{
  "summary": "string",
  "score": "number",
  "recommendations": ["string"]
}

Sortie

Le node renvoie la réponse de l’IA :

{
  "response": "Le texte généré ou la sortie JSON...",
  "model": "gpt-4o",
  "tokens_used": 523,
  "finish_reason": "stop"
}

Accéder à la réponse : {{LLM_0.response}}

Exemples

Résumé de contenu

Instructions :

Résume cet article en 3 points :

{{content}}

Garde chaque point sous 20 mots.

Sortie :

• Les outils IA transforment les workflows de contenu
• L’automatisation fait gagner 10+ heures par semaine
• L’intégration aux outils existants est fluide

Extraction de données

Instructions :

Extrais les informations suivantes de cette page entreprise :

{{content}}

Retourne en JSON :
{
  "company_name": "",
  "industry": "",
  "employee_count": "",
  "products": []
}

Sortie :

{
  "company_name": "Acme Technologies",
  "industry": "SaaS",
  "employee_count": "50-100",
  "products": ["Project Management", "Time Tracking"]
}

Génération de contenu

Instructions :

Écris un e-mail professionnel à {{contact_name}} chez {{company}}.

Contexte : {{meeting_notes}}

L’e-mail doit :
- Les remercier pour la réunion
- Résumer les points clés discutés
- Proposer les prochaines étapes
- Faire moins de 150 mots

Bonnes pratiques

Rédiger des prompts efficaces

Résume cet article en exactement 3 points.
Chaque point doit faire moins de 20 mots.
Insiste sur les enseignements actionnables pour les marketeurs.

Article :
{{content}}
Résume ça :
{{content}}

Utiliser les messages système

Définir le contexte pour de meilleurs résultats :

Système : Vous êtes un analyste de données. Donnez toujours des chiffres
précis et citez vos sources. Utilisez un ton professionnel.

Demander une sortie structurée

Pour un traitement dans les nodes suivants, demandez du JSON :

Analyse ces données et retourne en JSON :
{
  "sentiment": "positive|negative|neutral",
  "confidence": 0-100,
  "key_phrases": ["...", "..."]
}

Gérer le contenu long

Pour un contenu qui peut dépasser la limite de tokens :

  1. Découper le contenu avant envoi
  2. Traiter les morceaux séparément
  3. Fusionner les résultats

Problèmes courants

La réponse est coupée

Augmentez max_output_tokens. La valeur par défaut peut être trop basse pour les sorties longues.

La sortie JSON est invalide
  • Utilisez un schéma JSON dans les paramètres
  • Ajoutez « Retourne uniquement du JSON valide » dans les instructions
  • Baissez la température pour un formatage plus cohérent
Les résultats sont trop aléatoires

Baissez la température (0,2–0,4) pour des sorties plus cohérentes.

La réponse ne suit pas les instructions
  • Soyez plus précis dans vos instructions
  • Ajoutez des exemples de sortie attendue
  • Utilisez un message système pour définir le contexte

Nodes associés