Aller au contenu principal
Glossaire / Few-shot learning
Techniques & Méthodes Intermédiaire

Few-shot learning

Le few-shot learning est une technique de prompting qui consiste à fournir quelques exemples concrets au LLM dans le prompt pour guider le format et le style de sa réponse, sans modifier le modèle.

Qu’est-ce que le few-shot learning ?

Le few-shot learning est une technique de prompting qui consiste à fournir quelques exemples concrets au LLM pour lui montrer exactement ce qui est attendu. Au lieu de décrire la tâche avec des instructions abstraites, on montre le pattern par l’exemple.

Cette technique exploite la capacité d’apprentissage in-context des LLM : le modèle identifie le pattern dans les exemples et l’applique au nouveau cas, sans aucune modification de ses paramètres internes.

Zero-shot vs few-shot vs fine-tuning

Zero-shot (aucun exemple)

Le modèle reçoit uniquement l’instruction :

Classifie cet email en "urgent", "normal" ou "spam".
Email : "Réunion demain à 9h avec le client Acme..."

Le LLM s’appuie uniquement sur sa compréhension générale de la tâche.

Few-shot (quelques exemples)

Le modèle reçoit des exemples avant la tâche :

Classifie chaque email en "urgent", "normal" ou "spam".

Email : "GAGNEZ 10 000€ MAINTENANT"
Catégorie : spam

Email : "Panne serveur en production, intervention requise"
Catégorie : urgent

Email : "CR réunion de mardi — pas d'action requise"
Catégorie : normal

Email : "Réunion demain à 9h avec le client Acme..."
Catégorie :

Le LLM déduit les critères de classification à partir des exemples et les applique.

Fine-tuning (entraînement dédié)

Le modèle est ré-entraîné sur des centaines ou des milliers d’exemples. Ses paramètres internes sont modifiés. Le résultat est un modèle spécialisé qui n’a plus besoin d’exemples dans le prompt.

MéthodeExemples nécessairesCoûtFlexibilité
Zero-shot0Le plus basMaximale
Few-shot2-5Faible (tokens)Élevée
Fine-tuning100-10 000+Élevé (GPU)Faible

Quand utiliser le few-shot

Le few-shot est particulièrement efficace pour :

  • Imposer un format de sortie : montrer le JSON attendu, la structure d’un tableau, ou le format d’une réponse standardisée
  • Calibrer le ton : fournir des exemples de réponses dans le style souhaité (formel, concis, technique)
  • Gérer les cas limites : montrer comment traiter les cas ambigus que les instructions seules ne couvrent pas
  • Classification : illustrer les catégories avec des exemples représentatifs

Le few-shot est moins utile pour les tâches créatives ouvertes (rédaction libre, brainstorming) où un exemple risque de contraindre inutilement la réponse.

Bonnes pratiques

  • Varier les exemples : couvrir les différents cas de figure, y compris les cas limites. 3 exemples qui illustrent 3 situations différentes valent mieux que 3 exemples similaires
  • Ordonner stratégiquement : les LLM accordent plus d’attention aux premiers et derniers exemples (recency bias). Placer les exemples les plus représentatifs en premier et les cas limites en dernier
  • Garder les exemples cohérents : si le format change entre les exemples, le modèle ne saura pas lequel suivre. Un format identique sur tous les exemples produit des résultats plus prévisibles
  • Combiner avec le system prompt : placer les instructions générales dans le system prompt et les exemples dans le user prompt. Cette séparation est plus lisible et exploite mieux le prompt caching
  • Mesurer l’apport : comparer les résultats zero-shot et few-shot sur 20-30 cas de test. Si le zero-shot atteint déjà 95 % de précision, les exemples ajoutent du coût sans valeur significative

Termes associés

Questions fréquentes

C'est quoi le few-shot learning en IA ?

Le few-shot learning est une technique qui consiste à inclure quelques exemples (2 à 5 typiquement) dans le prompt pour montrer au LLM le format, le style ou la logique attendus. Au lieu d'expliquer comment classifier un email, vous montrez 3 exemples d'emails déjà classifiés. Le modèle déduit le pattern et l'applique au nouveau cas.

Quelle est la différence entre zero-shot, few-shot et fine-tuning ?

Le zero-shot donne une instruction sans exemple ('Classifie cet email'). Le few-shot ajoute quelques exemples dans le prompt ('Voici 3 emails classifiés, classifie celui-ci'). Le fine-tuning ré-entraîne le modèle sur des centaines ou des milliers d'exemples. Le zero-shot est le plus simple, le few-shot offre un meilleur guidage sans coût d'entraînement, et le fine-tuning produit les meilleurs résultats pour des tâches très spécifiques mais coûte plus cher.

Combien d'exemples faut-il pour le few-shot ?

En pratique, 2 à 5 exemples suffisent pour la plupart des tâches. Au-delà de 5, les gains marginaux diminuent et la consommation de tokens augmente. La qualité des exemples compte plus que la quantité : des exemples variés couvrant les cas limites sont plus efficaces que de nombreux exemples similaires.

Le few-shot consomme-t-il plus de tokens ?

Oui. Chaque exemple ajouté au prompt consomme des tokens en entrée, facturés à chaque requête. Avec 5 exemples de 100 tokens chacun, ce sont 500 tokens supplémentaires à chaque appel API. Pour les usages à haut volume, le prompt caching permet de réduire ce surcoût de 90 % quand les exemples sont identiques entre les requêtes.

Un email concret. Chaque mardi.

Rejoins 52 000 abonnés. Un outil testé, un workflow à copier ou une méthode à appliquer — en 5 minutes de lecture.

Gratuit · Désinscription en un clic.