Qu’est-ce qu’un prompt ?
Un prompt, c’est l’instruction envoyée à un LLM. C’est le point d’entrée de toute interaction avec une IA générative. Une phrase est soumise, le modèle produit une réponse. Simple en apparence — mais la qualité du prompt change radicalement la qualité du résultat.
Un prompt peut être :
- Une question : “Quels sont les avantages du TypeScript ?”
- Une consigne : “Réécrivez ce paragraphe en langage plus simple”
- Un contexte complet : “Vous êtes un développeur senior. Voici mon code. Trouvez les bugs et proposez des corrections.”
Les types de prompts
Prompt utilisateur (user prompt)
C’est le message saisi dans la barre de conversation. Chaque message envoyé à un chatbot comme ChatGPT, Claude ou Gemini est un user prompt. La formulation de ce message influence directement la pertinence de la réponse et peut réduire le risque d’hallucination.
System prompt
Le system prompt est une instruction invisible définie par le développeur. Il cadre le comportement du LLM pour toute la conversation : ton, limites, personnalité, format de réponse. L’utilisateur final ne le voit pas mais en subit les effets.
Exemple de system prompt :
“Vous êtes un assistant spécialisé en fiscalité française. Répondez uniquement aux questions fiscales. Si la question sort du cadre, indiquez poliment que vous ne pouvez pas répondre.”
Prompt engineering
Le prompt engineering est la discipline qui consiste à optimiser ses prompts pour obtenir les meilleurs résultats possibles d’un LLM. C’est une compétence clé, aussi bien pour les utilisateurs de chatbot que pour les développeurs d’agent IA ou de systèmes RAG.
Techniques pour écrire des prompts efficaces
Cinq principes qui font la différence :
- Soyez spécifique — “Écrivez un email de relance pour un devis envoyé il y a 7 jours, ton cordial mais ferme” bat “Écrivez un email”
- Donnez un rôle — “Vous êtes un rédacteur SEO senior” force le modèle à adopter un cadre de compétence
- Structurez la demande — Utilisez des tirets, des numéros, des sections pour que le modèle suive la logique souhaitée
- Fournissez des exemples — Le few-shot prompting (donner 2-3 exemples du résultat attendu) améliore significativement la sortie
- Itérez — Le premier prompt est rarement le bon. Affinez, reformulez, précisez
Prompt zero-shot vs few-shot
| Technique | Principe | Quand l’utiliser |
|---|---|---|
| Zero-shot | L’instruction est donnée sans exemple | Tâches simples et universelles |
| Few-shot | 2-3 exemples sont fournis avant la demande | Format spécifique, ton particulier, tâche complexe |
| Chain of thought | Le LLM est invité à raisonner étape par étape | Problèmes logiques, maths, analyse multicritère |
Le prompt est le levier le plus sous-estimé
La plupart des utilisateurs qui trouvent l’IA “moyenne” ont un problème de prompt, pas un problème d’IA. Un prompt vague donne une réponse vague. Un prompt précis, contextualisé et structuré produit un résultat exploitable directement — avec moins de tokens consommés et moins de risque d’hallucination.
Avant de changer de modèle, changez le prompt.
Termes associés
Questions fréquentes
C'est quoi un prompt en IA ?
Un prompt est le texte envoyé à une intelligence artificielle pour lui donner une instruction. Cela peut être une question simple ('Expliquez-moi la photosynthèse'), une consigne précise ('Écrivez un email professionnel de relance') ou un contexte complet avec des contraintes. La qualité du prompt détermine directement la qualité de la réponse.
Comment écrire un bon prompt ?
Un bon prompt est spécifique, contextualisé et structuré. Donnez un rôle au LLM ('Vous êtes un expert SEO'), précisez le format attendu ('Répondez en 3 bullet points'), fournissez du contexte ('Voici mon article...'), et indiquez les contraintes ('Maximum 200 mots, ton professionnel'). Plus le prompt est précis, meilleur est le résultat.
Quelle est la différence entre un prompt et un system prompt ?
Le prompt (ou user prompt) est le message visible envoyé au LLM. Le system prompt est une instruction cachée, définie en amont par le développeur, qui cadre le comportement du modèle pour toute la conversation (ton, limites, rôle). L'utilisateur final ne voit pas le system prompt.
Combien de tokens fait un prompt ?
La longueur d'un prompt se mesure en tokens. En moyenne, un mot français correspond à 1,5 token environ. Un prompt de 100 mots représente donc ~150 tokens. Les modèles ont une fenêtre de contexte limitée (de 4 000 à 200 000 tokens selon le LLM). Il est important de surveiller la consommation de tokens pour optimiser les coûts et les performances.