Intermédiaire🌀

Comprendre les hallucinations de l'IA

Pourquoi ChatGPT invente des références ? Pourquoi Bard a fait perdre 100 milliards à Google ? On t'explique le mécanisme des hallucinations IA, comment les détecter et les éviter.

11 min de lectureMise à jour 5 mai 2026

Une hallucination est une info factuellement fausse générée par une IA avec confiance apparente. Exemples : citer un livre qui n'existe pas, inventer une loi, attribuer une phrase à la mauvaise personne, donner un mauvais chiffre.

Pourquoi ça arrive : le LLM ne vérifie pas ses faits. Il prédit du texte plausible. Si la "vraie" réponse n'est pas claire dans son entraînement, il comble les trous avec ce qui sonne juste.

Comment se protéger : toujours vérifier les faits critiques, demander des sources, croiser avec une recherche web. Pour les usages pro : utiliser le RAG (recherche augmentée).

🧠 Quiz
Question 1 sur 3

Pourquoi un LLM hallucine-t-il ?

Tags
HallucinationsFiabilitéRAGLLM

À lire ensuite