Le RAG résout 2 problèmes des LLM :
- Hallucinations : le modèle s'appuie sur tes vrais docs, pas sur sa mémoire approximative
- Connaissance datée : le modèle accède à des infos fraîches sans avoir besoin d'être ré-entraîné
Comment ça marche : tu vectorises tes documents (transformes en nombres), tu les stockes dans une base vectorielle. Quand une question arrive, tu cherches les passages les plus proches sémantiquement, et tu les injectes dans le prompt du LLM.
Quand l'utiliser : chatbots support client, FAQ dynamiques, assistants documentaires, recherche dans des bases internes (juridique, médical, technique).
🧠 Quiz
Question 1 sur 3