Durée : 60 min | Modalité : Manipulation guidée + restitution sur tableau collaboratif
Mouvements DPA : Savoir, Discerner
À l'issue de cette séquence, les participant·es sauront : - Expliquer simplement le mécanisme de prédiction du mot suivant - Distinguer "calcul probabiliste" de "compréhension" - Observer et nommer une hallucination en direct
Action formateur : Démarrer par une démonstration live depuis votre propre compte IA (Le Chat / Mistral recommandé pour la souveraineté européenne).
Un LLM ne lit pas le texte comme vous. Il reçoit des tokens (fragments de mots, environ 3/4 de mot en moyenne). Pour chaque token à venir, il calcule une distribution de probabilités sur l'ensemble de son vocabulaire (50 000 à 100 000 tokens).
Analogie 1 — La tocante autocomplete :
"Vous tapez 'Bonne' dans un SMS. Votre téléphone suggère 'journée', 'chance', 'nuit'. Il ne lit pas votre pensée : il calcule ce qui a le plus de chances de suivre 'Bonne' dans des millions de SMS. Le LLM, c'est ça, mais à l'échelle d'une bibliothèque entière."Analogie 2 — Le dé pipé :
"Imaginez un dé à 100 000 faces. Chaque face est un mot du dictionnaire. Selon ce que vous avez dit avant, certaines faces deviennent beaucoup plus probables que d'autres. L'IA tire ce dé des milliards de fois en quelques secondes pour construire votre réponse."
Ce que ça implique (crucial) : - L'IA ne "cherche" pas la vérité. Elle calcule ce qui est vraisemblable. - Elle n'a pas de mémoire entre les conversations (sauf mémoire activée explicitement). - Elle n'a pas d'intention, d'opinion, de conscience.
Message-clé : "Quand l'IA dit 'Je pense que...', c'est une figure de style statistique. Ce n'est pas une pensée. C'est la configuration de tokens qui, statistiquement, suit 'Je'. C'est fondamental. Si vous partez de là, vous ne serez jamais trompé par ce qu'elle vous dit."
Consigne aux participant·es :
"Vous avez 20 minutes. Posez à l'IA une question sur un sujet que vous maîtrisez parfaitement — votre métier, votre territoire, votre structure, une procédure que vous connaissez sur le bout des doigts. Copiez la réponse dans le tableau collaboratif partagé. On cherche les erreurs."
Exemples de questions-tests suggérés : - "Quelles sont les règles d'encadrement dans un accueil de mineurs en France en 2024 ?" - "Comment fonctionne une demande de subvention FDVA ?" - "Que dit la loi sur le droit à l'image des mineurs ?" - "Quels sont les diplômes reconnus pour diriger un ACM ?"
Pendant l'atelier :
Circulez dans les breakouts. Encouragez les participant·es à poser des questions de plus en plus précises. Observez à voix haute : "Regardez — elle répond avec assurance. Ça ressemble à une réponse d'expert. Est-ce que c'est juste ?"
Débrief en plénière (10 min) :
Tour de table rapide : chaque participant·e partage l'erreur la plus surprenante trouvée.
Classez les erreurs au tableau collaboratif en 3 catégories : 1. Hallucinations franches : informations inventées (dates, noms, lois inexistantes) 2. Approximations : information vraie mais mal calibrée (taux, ratios, exceptions ignorées) 3. Réponses plausibles mais périmées : données correctes mais antérieures à la date de coupure du modèle
Message-clé : "L'IA n'hallucine pas parce qu'elle est bête. Elle hallucine parce qu'elle est trop douée pour construire du vraisemblable. C'est exactement son talent — et exactement son problème."
Questions à poser au groupe (format plénière, réponses dans le chat ou à voix haute) :
À noter au tableau collaboratif : deux colonnes — "Ce qu'elle fait" / "Ce qu'elle simule"
Message de clôture de séquence :
"Vous avez maintenant deux objets distincts dans les mains : ce que l'IA fait vraiment (du calcul probabiliste à très grande échelle) et ce que ça ressemble (de la compréhension, de la sagesse, de la créativité). Ces deux choses ne sont pas la même chose. Et cette distinction, c'est votre meilleure protection."