Séquence 1 — Jeu de détection : deepfakes, hallucinations, productions IA

Durée : 60 min | Modalité : Atelier ludique en plénière distancielle
Mouvements DPA : Savoir, Discerner


🎯 Objectifs de la séquence

À l'issue de cette séquence, les participant·es sauront : - Identifier les indices visuels et textuels d'une production IA - Nommer les différents types de deepfakes (image, voix, vidéo) - Adopter un réflexe de vérification avant de partager un contenu


⏱️ Minutage formateur

0:00 – 0:05 (5 min) — Consigne du jeu

Format : Le formateur partage son écran et présente les productions une par une. Les participant·es votent via le système de sondage.

Règles : - Pas de recherche Google pendant le vote (on joue à "première impression") - On peut justifier son vote dans le chat - Après chaque vote : débrief technique de 3-4 minutes - L'objectif n'est pas de "gagner" mais d'apprendre à regarder autrement


0:05 – 0:55 (50 min) — 8 productions à analyser (6 min chacune)

⚠️ Note formateur : Préparer les productions EN AMONT. Pour chaque production, noter l'outil utilisé pour la générer ET les indices qui la trahissent. Ne pas utiliser de photos de personnes réelles sans leur accord explicite. Privilégier les exemples de personnalités publiques déjà documentés dans la presse ou les exemples fabriqués pour la formation.

Production 1 — IMAGE : Photo de groupe en extérieur

Indices typiques à chercher : - Mains avec 6 doigts ou doigts fusionnés - Arrière-plan incohérent (fenêtres qui disparaissent, ombres dans la mauvaise direction) - Oreilles ou bijoux asymétriques - Texte illisible dans l'image - Fourrure ou cheveux trop parfaits ou au contraire impossibles

Verdict et débrief : Si IA — montrer exactement où sont les artefacts. Expliquer pourquoi l'IA rate les mains (le réseau n'a pas eu suffisamment d'exemples de mains dans toutes les positions).


Production 2 — TEXTE : Article de presse sur un événement local

Indices typiques à chercher : - Style trop poli et équilibré (l'IA évite naturellement la polémique) - Absence de citation directe de personnes réelles (l'IA n'invente pas des citations, généralement) - Dates vagues ("récemment", "il y a quelques années") - Chiffres trop ronds ou impossibles à vérifier - Pas d'ancrage géographique précis malgré l'apparence

Débrief : Montrer comment tester avec une recherche Google sur des éléments factuels. Insister sur la vraisemblance stylistique trompeuse.


Production 3 — AUDIO : Extrait de voix d'une personne connue

Indices typiques à chercher : - Rythme trop régulier, absence de faux départs - Manque de souffle entre les phrases - Prononciation trop parfaite des mots difficiles - Légère métalisation sur certaines consonnes - Absence de bruit de fond naturel (ou au contraire bruit trop homogène)

Débrief : Présenter les outils de clonage de voix (ElevenLabs, Vall-E) et leur accessibilité croissante. Insister sur les usages malveillants (arnaque familiale par clonage de voix).


Production 4 — IMAGE : Photo d'une manifestation ou d'un événement politique

Indices à chercher : - Panneaux avec texte illisible - Foule trop uniforme (expressions identiques) - Vêtements de style mélangé incohérent - Éléments architecturaux inventés

Débrief : Présenter les outils de vérification (TinEye, Google Images inversé, InVID/WeVerify). Rappeler que la manipulation de l'opinion par de fausses images n'est pas nouvelle (photos retouchées existent depuis les années 1850) mais que l'IA démocratise la production.


Production 5 — TEXTE : Biographie d'un scientifique inconnu

Indices à chercher : - Prix inexistants - Établissements réels mais affiliations inventées - Publications dans des revues réelles mais sur des sujets improbables - Dates d'événements qui ne correspondent pas à la chronologie réelle

Débrief : C'est le cœur de l'hallucination. L'IA ne "sait" pas que le scientifique n'existe pas. Elle construit une biographie vraisemblable. Insister : même pour des personnes réelles, l'IA peut inventer des détails.


Production 6 — IMAGE : Portrait d'un enfant

Débrief : - Si l'image est clairement générée : montrer les indices. - Soulever la question éthique de la génération d'images d'enfants réalistes par IA. - Mentionner le cadre légal : en France, la génération d'images à caractère sexuel représentant un mineur est illégale même si l'image est synthétique (loi de 1998, confirmée par jurisprudence).


Production 7 — VIDEO : Courte vidéo de 30 secondes (deepfake facile)

Indices à chercher : - Clignement des yeux irrégulier ou absent - Halo légèrement flou autour du visage (masque de fusion) - Lèvres qui ne correspondent pas parfaitement aux sons - Expressions faciales légèrement décalées

Débrief : Montrer la progression rapide de la qualité des deepfakes vidéo (2019 → 2024). Présenter des outils de détection (Hive Moderation, Intel FakeCatcher).


Production 8 — TEXTE : Compte-rendu de réunion du Conseil Municipal

Débrief : - Texte vraisemblable mais sans ancrage réel - Noms de conseillers fictifs - Délibérations sur des sujets plausibles mais sans numéro de délibération vérifiable - Ce type de document pourrait servir à créer de fausses décisions officielles


0:55 – 1:00 (5 min) — Bilan réflexif

Question au groupe :
"Après ce jeu, quel est votre niveau de confiance dans les images et les textes que vous voyez passer sur vos réseaux ?"

"Quels réflexes vous emportez de cette heure ?"


📌 Ressources formateur

📚 Sources mobilisables en formation