Hallucination (IA)
📖 Définition
💬 En termes simples
Imagine un étudiant brillant qui a lu beaucoup mais qui, face à une question sur laquelle il manque d'information, invente une réponse qui sonne intelligente plutôt que d'admettre qu'il ne sait pas. Le LLM fait pareil : il préfère générer une réponse cohérente plutôt que de dire 'je ne sais pas'.
🎯 Exemple concret
Un avocat américain en 2023 a soumis au tribunal un mémoire rédigé avec ChatGPT contenant 6 décisions de jurisprudence **inventées** mais formellement parfaites. Sanctionné par le juge, il est devenu le cas d'école pour expliquer pourquoi vérifier toute citation produite par une IA.
💡 Le saviez-vous ?
Anthropic a publié en 2024 une étude montrant que Claude reconnaît son incertitude dans 37% des questions difficiles plutôt que d'halluciner, contre 15% pour GPT-4 — un avantage attribué au principe Constitutional AI qui inclut explicitement 'préfère dire je ne sais pas plutôt qu'inventer'.