Se souvenir : Hallucination / Erreur: Difference between revisions
Jump to navigation
Jump to search
(Created page with "Il est important de comprendre que le mot “hallucination” est réservé à l’IA générative de texte ou d’image. Parce que leur fonctionnement repose sur la '''prédiction de mots''', <u>pas</u> sur une '''base de données vérifiée'''. * L’hallucination est structurelle : elle vient du fait qu’un modèle de langage ne cherche pas la vérité, mais la cohérence. * Si tu veux réduire les hallucinations, tu dois encadrer la génération (exiger des sources,...") |
No edit summary |
||
| Line 1: | Line 1: | ||
Il est important de comprendre que le mot “hallucination” est réservé à l’IA générative de texte ou d’image. Parce que leur fonctionnement repose sur la '''prédiction de mots''', <u>pas</u> sur une '''base de données vérifiée'''. | Il est important de comprendre que le mot “hallucination” est réservé à l’IA générative de texte ou d’image. Parce que leur fonctionnement repose sur la '''prédiction de mots''', <u>pas</u> sur une '''base de données vérifiée'''. | ||
* L’hallucination est structurelle : elle vient du fait qu’un modèle de langage ne cherche pas la vérité, mais la cohérence. | * L’hallucination est structurelle : elle vient du fait qu’un modèle de langage ne cherche '''pas la vérité''', mais '''la cohérence'''. | ||
* Si tu veux réduire les hallucinations, tu dois encadrer la génération (exiger des sources, coupler l’IA avec une base fiable, limiter son champ d’action). | * Si tu veux réduire les hallucinations, tu dois encadrer la génération (exiger des sources, coupler l’IA avec une base fiable, limiter son champ d’action). | ||
Latest revision as of 15:54, 21 September 2025
Il est important de comprendre que le mot “hallucination” est réservé à l’IA générative de texte ou d’image. Parce que leur fonctionnement repose sur la prédiction de mots, pas sur une base de données vérifiée.
- L’hallucination est structurelle : elle vient du fait qu’un modèle de langage ne cherche pas la vérité, mais la cohérence.
- Si tu veux réduire les hallucinations, tu dois encadrer la génération (exiger des sources, coupler l’IA avec une base fiable, limiter son champ d’action).
L’erreur est contextuelle : elle dépend des données, du paramétrage, du domaine d’application. Si tu veux réduire les erreurs, tu dois améliorer tes prompts, ou corriger les biais dans tes données.
- Une IA juridique qui rate un arrêt n’hallucine pas. Elle se trompe.
- Une IA médicale qui ne détecte pas une fracture n’hallucine pas. Elle fait une erreur de diagnostic.
- Une IA de traduction qui sort une phrase bancale n’hallucine pas. Elle traduit mal.