Écrire un Prompt : Guide Technique
Posté le 18 avril 2025 • 4 min de lecture • 722 motsLe prompt engineering permet d’optimiser l’usage des modèles de langage. Ce guide technique présente les bases pour créer des prompts efficaces, notamment avec LangChain.

Dans LangChain, un prompt représente une structure textuelle destinée à guider un modèle de langage. Un prompt bien construit intègre plusieurs composants essentiels :
Ce format permet de formuler des requêtes claires, encadrées, et reproductibles.
Voici un autre exemple utilisant LangChain en Python avec cette structure :
from langchain.prompts import PromptTemplate
# Définir un template de prompt structuré
prompt = PromptTemplate(
input_variables=["product_name"],
template="""
Instruction: Rédige une description commerciale attrayante pour un produit.
Context: Le public cible est constitué de jeunes adultes intéressés par la technologie.
Input Data: {product_name}
Output Indicator: Une courte description de 2 phrases maximum.
"""
)
# Générer le prompt final
final_prompt = prompt.format(product_name="écouteurs sans fil Bluetooth résistants à l'eau")
print(final_prompt)
# Exemple de réponse du LLM :
# "Découvrez une liberté totale avec nos écouteurs sans fil résistants à l'eau. Parfaits pour vos sessions sportives, ils offrent un son immersif sans compromis."Grâce à PromptTemplate, il est possible de concevoir des prompts réutilisables et composables. Voici une approche modulaire :
from langchain.prompts import PromptTemplate
base_template = """\
Instruction: {instruction}
Input: {input_data}
Respond with: {output_indicator}
"""
template = PromptTemplate(
input_variables=["instruction", "input_data", "output_indicator"],
template=base_template,
)Cela permet de construire dynamiquement des prompts adaptés à divers cas d’ usage sans dupliquer le code.
Voici un exemple utilisant LangChain en Python avec cette structure :
from langchain.prompts import PromptTemplate
from langchain.llms import OpenAI
from langchain.chains import LLMChain
template = """\
Instruction: {instruction}
Context: {context}
Input: {input_data}
Respond with: {output_indicator}
"""
prompt = PromptTemplate(
input_variables=["instruction", "context", "input_data", "output_indicator"],
template=template,
)
llm = OpenAI(temperature=0.3)
chain = LLMChain(llm=llm, prompt=prompt)
response = chain.run({
"instruction": "Classifie le sentiment du texte suivant.",
"context": "Utilise uniquement les catégories : positif, négatif, neutre.",
"input_data": "Je suis très satisfait de ce produit, il a dépassé mes attentes.",
"output_indicator": "un mot indiquant le sentiment"
})print(response) Réponse attendue : positif
La conception d’un bon prompt repose sur plusieurs principes clés :
| Stratégie | Structure | Complexité | Niveau de contrôle |
|---|---|---|---|
| Zero-shot | Une instruction directe sans exemple | Faible | Bas |
| Few-shot | Instruction + quelques exemples d’entrée/sortie | Moyenne | Moyen |
| Chain-of-Thought | Instruction + raisonnement étape par étape | Élevée | Élevé |
Chaque stratégie s’adapte à des cas d’usage différents : le zero-shot pour les tâches simples, le few-shot pour renforcer la précision, et le chain-of-thought pour les raisonnements complexes.
Le choix de la structure de prompt dépend fortement de la tâche :
Voici une sélection de ressources fiables pour réutiliser ou s’inspirer de prompts existants :
| Nom | Type de prompt | Lien source |
|---|---|---|
| Prompt Engineering Guide | Généralistes, annotés | github.com/dair-ai |
| Flowise AI | Visuels, basés sur des workflows | flowiseai.com |
| OpenPrompt | Prompts orientés NLP & classification | github.com/thunlp |
| LangChain Templates | Chaînes de prompts modulaires | python.langchain.com |
Ces sources offrent une excellente base pour démarrer ou affiner vos expérimentations.
Flowise facilite l’intégration des prompts dans des pipelines no-code. Les avantages incluent :
Pour les data scientists souhaitant prototyper sans écrire du code, Flowise est une alternative très efficace.
La qualité d’un prompt influence directement la performance du modèle. En structurant correctement vos prompts autour des éléments instruction, context, input data et output indicator, vous améliorez la précision, la cohérence et la pertinence des réponses générées.
Continuez à expérimenter avec différentes approches (zero-shot, few-shot, chain-of-thought) et explorez des outils comme Flowise et OpenPrompt pour accélérer vos itérations.
Références :