Une hallucination est une info factuellement fausse générée par une IA avec confiance apparente. Exemples : citer un livre qui n'existe pas, inventer une loi, attribuer une phrase à la mauvaise personne, donner un mauvais chiffre.
Pourquoi ça arrive : le LLM ne vérifie pas ses faits. Il prédit du texte plausible. Si la "vraie" réponse n'est pas claire dans son entraînement, il comble les trous avec ce qui sonne juste.
Comment se protéger : toujours vérifier les faits critiques, demander des sources, croiser avec une recherche web. Pour les usages pro : utiliser le RAG (recherche augmentée).