Simple Enough Blog logo
  • Home 
  • Projets 
  • Tags 

  •  Langage
    • English
    • Français
  1.   Blogs
  1. Accueil
  2. Blogs
  3. Écrire un Prompt : Guide Technique

Écrire un Prompt : Guide Technique

Posté le 18 avril 2025 • 4 min de lecture • 722 mots
LLM   Langchain   Général   Helene  
LLM   Langchain   Général   Helene  
Partager via
Simple Enough Blog
Lien copié dans le presse-papier

Le prompt engineering permet d’optimiser l’usage des modèles de langage. Ce guide technique présente les bases pour créer des prompts efficaces, notamment avec LangChain.

Sur cette page
I. Comprendre ce qu’ est un prompt dans LangChain   II. Concevoir un prompt modulaire avec LangChain   III. Bonnes pratiques   IV. Comparatif des stratégies de prompting   V. Adapter ses prompts à la tâche   VI. Où trouver des prompts prêts à l’usage ?   VII. Intégrer des prompts dans des workflows visuels avec Flowise   Conclusion  
Écrire un Prompt : Guide Technique
Photo par Helene Hemmerter avec DALLE

I. Comprendre ce qu’ est un prompt dans LangChain  

Dans LangChain, un prompt représente une structure textuelle destinée à guider un modèle de langage. Un prompt bien construit intègre plusieurs composants essentiels :

  • Instruction : Ce que vous demandez explicitement au modèle.
  • Context : Informations supplémentaires permettant de cadrer la réponse.
  • Input Data : Les données d’entrée spécifiques à chaque exécution.
  • Output Indicator : Ce que vous attendez comme type de sortie.

Ce format permet de formuler des requêtes claires, encadrées, et reproductibles. Voici un autre exemple utilisant LangChain en Python avec cette structure :

from langchain.prompts import PromptTemplate

# Définir un template de prompt structuré
prompt = PromptTemplate(
    input_variables=["product_name"],
    template="""
Instruction: Rédige une description commerciale attrayante pour un produit.
Context: Le public cible est constitué de jeunes adultes intéressés par la technologie.
Input Data: {product_name}
Output Indicator: Une courte description de 2 phrases maximum.
"""
)

# Générer le prompt final
final_prompt = prompt.format(product_name="écouteurs sans fil Bluetooth résistants à l'eau")

print(final_prompt)

# Exemple de réponse du LLM :
# "Découvrez une liberté totale avec nos écouteurs sans fil résistants à l'eau. Parfaits pour vos sessions sportives, ils offrent un son immersif sans compromis."

II. Concevoir un prompt modulaire avec LangChain  

Grâce à PromptTemplate, il est possible de concevoir des prompts réutilisables et composables. Voici une approche modulaire :

from langchain.prompts import PromptTemplate

base_template = """\
Instruction: {instruction}
Input: {input_data}
Respond with: {output_indicator}
"""

template = PromptTemplate(
    input_variables=["instruction", "input_data", "output_indicator"],
    template=base_template,
)

Cela permet de construire dynamiquement des prompts adaptés à divers cas d’ usage sans dupliquer le code.

Voici un exemple utilisant LangChain en Python avec cette structure :

from langchain.prompts import PromptTemplate
from langchain.llms import OpenAI
from langchain.chains import LLMChain

template = """\
Instruction: {instruction}
Context: {context}
Input: {input_data}
Respond with: {output_indicator}
"""

prompt = PromptTemplate(
    input_variables=["instruction", "context", "input_data", "output_indicator"],
    template=template,
)

llm = OpenAI(temperature=0.3)
chain = LLMChain(llm=llm, prompt=prompt)

response = chain.run({
    "instruction": "Classifie le sentiment du texte suivant.",
    "context": "Utilise uniquement les catégories : positif, négatif, neutre.",
    "input_data": "Je suis très satisfait de ce produit, il a dépassé mes attentes.",
    "output_indicator": "un mot indiquant le sentiment"
})

print(response) Réponse attendue : positif


III. Bonnes pratiques  

La conception d’un bon prompt repose sur plusieurs principes clés :

  • Soyez explicite : définissez précisément l’ objectif.
  • Fournissez du contexte utile : format, règles, exemples.
  • Indiquez clairement ce qui est attendu : format de sortie, style, contraintes.
  • Testez et itérez : ajustez selon les réponses.

IV. Comparatif des stratégies de prompting  

StratégieStructureComplexitéNiveau de contrôle
Zero-shotUne instruction directe sans exempleFaibleBas
Few-shotInstruction + quelques exemples d’entrée/sortieMoyenneMoyen
Chain-of-ThoughtInstruction + raisonnement étape par étapeÉlevéeÉlevé

Chaque stratégie s’adapte à des cas d’usage différents : le zero-shot pour les tâches simples, le few-shot pour renforcer la précision, et le chain-of-thought pour les raisonnements complexes.


V. Adapter ses prompts à la tâche  

Le choix de la structure de prompt dépend fortement de la tâche :

  • Classification : privilégiez les prompts courts avec des options explicites.
  • Génération de texte : utilisez des prompts avec exemples et contexte.
  • Extraction de données : indiquez clairement le format de sortie attendu.

VI. Où trouver des prompts prêts à l’usage ?  

Voici une sélection de ressources fiables pour réutiliser ou s’inspirer de prompts existants :

NomType de promptLien source
Prompt Engineering GuideGénéralistes, annotésgithub.com/dair-ai
Flowise AIVisuels, basés sur des workflowsflowiseai.com
OpenPromptPrompts orientés NLP & classificationgithub.com/thunlp
LangChain TemplatesChaînes de prompts modulairespython.langchain.com

Ces sources offrent une excellente base pour démarrer ou affiner vos expérimentations.


VII. Intégrer des prompts dans des workflows visuels avec Flowise  

Flowise facilite l’intégration des prompts dans des pipelines no-code. Les avantages incluent :

  • Interface glisser-déposer pour construire des chaînes LLM
  • Intégration directe avec LangChain
  • Déploiement rapide de cas d’usage métiers

Pour les data scientists souhaitant prototyper sans écrire du code, Flowise est une alternative très efficace.


Conclusion  

La qualité d’un prompt influence directement la performance du modèle. En structurant correctement vos prompts autour des éléments instruction, context, input data et output indicator, vous améliorez la précision, la cohérence et la pertinence des réponses générées.

Continuez à expérimenter avec différentes approches (zero-shot, few-shot, chain-of-thought) et explorez des outils comme Flowise et OpenPrompt pour accélérer vos itérations.


Références :

  • LangChain Documentation
  • Prompt Engineering Guide (dair-ai)
  • Flowise
  • OpenPrompt (THUNLP)
 Real-Time, Real-Easy : Déployez des WebSockets
J'hallucine avec Langchain 
  • I. Comprendre ce qu’ est un prompt dans LangChain  
  • II. Concevoir un prompt modulaire avec LangChain  
  • III. Bonnes pratiques  
  • IV. Comparatif des stratégies de prompting  
  • V. Adapter ses prompts à la tâche  
  • VI. Où trouver des prompts prêts à l’usage ?  
  • VII. Intégrer des prompts dans des workflows visuels avec Flowise  
  • Conclusion  
Suivez-nous

Nous travaillons avec vous !

   
Copyright © 2026 Simple Enough Blog Tous droits réservés. | Propulsé par Hinode.
Simple Enough Blog
Code copié dans le presse-papier