Comment concevoir des évaluations résistantes à l'IA en 2025

Ronan Broussier

Ronan Broussier

IA

Comment concevoir des évaluations résistantes à l'IA en 2025

Votre syllabus dépend d'un édifice pédagogique : les examens, les devoirs, les projets. Ces évaluations sont censées mesurer ce que vos étudiants ont appris. Mais avec ChatGPT et les outils d'IA générative, cet édifice se fissure. Comment évaluer fidèlement les connaissances et compétences quand une machine peut générer des réponses convaincantes en quelques secondes ?

La bonne nouvelle : vous n'avez pas besoin d'une technologie anti-IA pour créer des évaluations robustes. Vous avez besoin d'une pédagogie rethinkée. Une étude de Frontiers in Education (2025) le confirme : les cours qui intègrent délibérément des formats d'évaluation alternatifs voient une amélioration de 23-35 % dans les résultats des étudiants.

Cet article vous présente cinq approches éprouvées pour concevoir des évaluations que l'IA ne peut pas contourner, et qui créent un meilleur apprentissage par la même occasion.

Pourquoi l'IA met vos évaluations classiques en péril

Les faiblesses des devoirs écrits traditionnels

Un devoir : "Analysez les causes de la Révolution française en 1500 mots." Parfait pour ChatGPT. L'IA peut générer une réponse structurée, bien argumentée, avec des exemples pertinents. L'étudiant copie-colle (ou légèrement retouche) et obtient sa note.

Le problème n'est pas seulement la triche. C'est que ce format teste aussi peu la compétence de l'étudiant même si ce dernier est honnête. Rédiger un devoir sans ressources ni aide est une compétence limitée. Le vrai travail que vous voulez évaluer (la réflexion critique, la synthèse, l'analyse) est complètement détonable par une machine.

La fausse sécurité de l'examen fermé

L'examen classique en amphi, sans accès à Internet, semblait autrefois un rempart. Mais même là, l'IA s'infiltre. Les étudiants utilisent des outils sur leur téléphone. Certains institutions ont tenté d'interdire les phones, de creuser des salles Faraday. C'est une course technologique perdante d'avance.

De plus, un examen écrit fermé teste surtout la capacité à reproduire des informations de mémoire. C'est une compétence de moins en moins pertinente à l'ère de l'IA.

L'illusion que la détection résout le problème

Vous l'avez lu dans l'article précédent : détecter l'IA est difficile, imprécis, et risque des faux positifs. Compter sur une technologie de détection pour sécuriser vos évaluations, c'est comme compter sur un antivirus pour sécuriser une forteresse. C'est partiel et fragile.

La vraie sécurité vient de la conception pédagogique, pas de la technologie.

Cinq approches pour des évaluations robustes

Approche 1 : Augmenter la complexité et le contexte spécifique

L'IA excelle sur des questions génériques. Elle struggle davantage quand les questions demandent une compréhension fine, contextualisée, et une application créative.

Au lieu de : "Définissez la photosynthèse", demandez : "Une plante placée en lumière verte (pas sa couleur optimale) montre une croissance ralentie. Expliquez le mécanisme biologique et proposez une solution agricole pratique basée sur cet enjeu."

Cette question exige une compréhension profonde, pas une récitation. L'IA peut donner une réponse plausible. Mais un étudiant qui la lit sans vraiment comprendre sera exposé à l'oral ou lors du diagnostic suivant.

La complexité et le contexte local (spécifique à votre cours) rendent difficile pour l'IA une copie-collage direct.

Approche 2 : Évaluer le processus, pas seulement le produit

Un essai final sans contexte de création : facile à générer par IA. Un essai avec l'historique de ses révisions, les sources lues, les brouillons annotés, les choix justifiés : beaucoup plus difficile à contrefaire.

Google Docs permet de voir l'historique de chaque changement. Des portfolios numériques enregistrent l'évolution du travail. Les étudiants qui utilisent l'IA pour rédiger rapidement auront un historique désorganisé et non authentique.

Évaluez aussi les interactions : questions posées en cours, discussions en groupe, comments sur les travaux des pairs. Ces moments authentiques témoignent de la compréhension réelle.

Approche 3 : Privilégier la pensée critique et le raisonnement

L'IA peut affirmer, l'étudiant doit justifier.

Au lieu de : "Quels sont les trois enjeux de la numérisation ?", demandez : "Parmi ces trois enjeux, lequel considérez-vous comme le plus urgent pour votre secteur professionnel ? Justifiez en vous appuyant sur deux articles académiques lus en classe."

Cette formulation force l'étudiant à exercer un jugement critique, à sélectionner des preuves, à construire un argument personnel. C'est exactement ce qui mesure l'apprentissage véritable.

L'IA peut aider à générer des arguments, mais elle ne peut pas fournir le jugement critique authentique de l'étudiant.

Approche 4 : Échelonner et moduler les formats d'évaluation

N'évaluez pas uniquement par un examen final ou un gros devoir. Utilisez :

  • De petites évaluations formatives régulières (quiz, réflexions écrites courtes)

  • Des présentations orales

  • Des travaux collaboratifs où vous observez le processus

  • Des portfolios cumulatifs

  • Des projets appliqués et authentiques

Chaque format teste des compétences différentes et crée des contextes où l'IA joue un rôle différent (peu ou aucun).

L'étudiant malhonnête aurait besoin de tricher dans presque tous les formats à la fois. C'est beaucoup plus difficile qu'une tricherie ciblée sur un gros devoir.

Approche 5 : Privilégier les évaluations orales et synchrones

Une présentation orale synchrone reste très difficile à déléguer à l'IA. L'étudiant doit être présent, répondre à des questions impromptues, adapter son discours en fonction des réactions.

Même un étudiant qui a préparé des slides générées par IA sera exposé à l'oral. C'est pourquoi beaucoup d'universités combinent : travail écrit + défense orale.

L'oral n'est pas seulement plus sûr contre la triche. C'est aussi une évaluation plus riche, testant des compétences de communication essentielles.

Formats d'évaluation innovants et éprouvés

E-portfolios : le dossier authentique d'apprentissage

Un e-portfolio regroupe les travaux d'un étudiant au cours du semestre ou de l'année : essais révisés, réflexions personnelles, projets, feedback reçus, preuves de progrès.

C'est un format difficile à falsifier. Un portfolio authentique montre une progression, des erreurs corrigées, des apprentissages intégrés progressivement. Un portfolio généré par IA serait un artefact sans vie.

De plus, pédagogiquement, les portfolios favorisent l'autoréflexion et l'apprentissage profond.

Évaluations authentiques : plaidoiries, pitchs, podcasts

Au lieu d'un essai sur "les enjeux de la transition énergétique", demandez :

  • De préparer une plaidoirie (argumentée, destinée à convaincre un décideur)

  • De créer un pitch (présentation courte et persuasive d'une idée)

  • D'enregistrer un podcast (entrevue, monologue réfléchi sur un sujet)

Ces formats authentiques rapprochent l'évaluation du monde réel. Un étudiant qui prépare une plaidoirie orale doit maîtriser le sujet. C'est un enjeu de crédibilité personnelle, pas de notation.

Ces formats sont aussi intrinsèquement résistants à l'IA : difficile de déléguer une plaidoirie orale à une machine.

Tâches multimodales : combiner texte, audio, vidéo, images

Demandez un travail qui combine plusieurs modes : un essai écrit, une infographie, une courte vidéo explicative, des données visuelles.

Cette diversité rend le travail plus riche et la triche plus compliquée. L'étudiant doit créer une cohérence entre les éléments, ce qui exige une compréhension authentique.

De plus, les tâches multimodales testent des compétences du 21e siècle : communication visuelle, média literacy, pensée créative.

Projets appliqués et contextualisés

Au lieu d'un devoir théorique, un projet appliqué : "Vous travaillez pour une ONG. Comment utiliseriez-vous les concepts vus en classe pour résoudre ce problème réel ?"

L'application force la pensée critique. L'étudiant ne peut pas copier une réponse générique IA ; elle doit l'adapter à un cas spécifique.

Ces projets sont aussi plus motivants pour les étudiants et plus utiles pour leur développement professionnel.

Guides pratiques et ressources

L'approche de UMass Amherst

UMass Amherst a publié le guide "How to Redesign Assignments in AI World". Les principes clés :

  • Recentrer sur les processus plutôt que les livrables finaux

  • Intégrer l'IA délibérément dans l'évaluation (enseigner à l'utiliser, pas l'interdire)

  • Utiliser la variation (plusieurs formats, plusieurs moments d'évaluation)

  • Évaluer en temps réel quand possible (synchrone plutôt qu'asynchrone)

Ce guide est librement accessible et adapté à presque toutes les disciplines.

La directive française de juin 2025

Le ministère français a publié un cadre d'usage de l'IA en éducation. Il recommande :

  • Transparence sur les usages IA autorisés

  • Diversification des formats d'évaluation

  • Formation des enseignants aux outils IA

  • Approche éthique plutôt que technique pour l'intégrité académique

Ce cadre officiel legitimize l'intégration délibérée de l'IA dans vos cours.

L'approche de l'UNESCO (février 2025)

Les référentiels de compétences IA pour enseignants de l'UNESCO encouragent une approche centrée humain. L'idée : l'IA augmente les capacités humaines, elle ne les remplace pas.

Pour l'évaluation, cela signifie : testez ce que les humains font mieux, ce qui a de la valeur précisément parce que c'est humain (créativité, jugement éthique, empathie, prise de décision complexe).

Intégrer l'IA dans votre évaluation, plutôt que de la combattre

Créer des exercices où l'IA est un outil pédagogique

Au lieu d'interdire l'IA, l'utiliser explicitement :

"Générez trois scénarios différents avec ChatGPT pour ce cas d'études. Analysez chacun : quels sont les points forts, les faiblesses, les biais potentiels ?"

Cet exercice enseigne comment utiliser l'IA de manière critique. L'étudiant développe une expertise.

Évaluer la capacité à utiliser l'IA

Une nouvelle compétence : savoir utiliser l'IA efficacement et éthiquement. Évaluez-la directement.

"Utilisez ChatGPT pour générer un plan sur ce sujet. Montrez ensuite comment vous l'amélioreriez ou le corrigeriez."

L'IA n'est pas une menace à repousser, c'est une compétence à développer.

Les limites et les risques

L'étude de Stanford et ses implications

Stanford a examiné les études sur l'apprentissage amélioré par IA. Conclusion inquiétante : 89 % des études ne prennent pas en compte les préoccupations éthiques.

L'IA peut améliorer les résultats (Frontiers Education confirme une amélioration de 23-35% dans les courses bien conçus). Mais au prix de quoi ? Si l'IA remplace la réflexion critique, l'amélioration est creux.

Assurez-vous que vos évaluations testent vraiment l'apprentissage profond, pas juste la performance mesurable.

L'équité et l'accès

Tous les étudiants n'ont pas accès aux outils IA. Si vos évaluations supposent l'utilisation d'outils premium, vous créez une inégalité.

Soit vous fournissez un accès égal, soit vous structurez les évaluations pour que l'IA soit optionnelle.

Stratégies pédagogiques de l'UQAM (2025)

L'Université du Québec à Montréal a documenté six stratégies pédagogiques validées pour s'adapter aux défis de l'IA :

  1. Enseignement différencié : adapter le contenu à chaque étudiant

  2. Prompts précis : enseigner à formuler des questions efficaces

  3. Évaluations formatives : feedback continu plutôt que notes finales

  4. Pensée critique : questionner les sources et les réponses

  5. Collaboration : travaux en groupe où l'IA a peu de prise

  6. Adaptation progressive : évoluer graduellement vers de nouveaux formats

Ces stratégies ne sont pas "anti-IA". Elles sont pro-apprentissage. Et elles rendent vos évaluations à la fois plus robustes et plus significatives.

Mettre en œuvre progressivement

Commencer petit

Redesinez une évaluation cette session. Observez les résultats. Discutez avec les étudiants : qu'ont-ils trouvé plus efficace ? Quel format les a poussés à apprendre davantage ?

Cette démarche itérative est plus soutenable qu'une refonte complète.

Impliquer les collègues

Partagez votre expérience. Organiser un atelier dans votre département sur le redesign d'évaluations. Apprenez des approches des autres disciplines.

L'IA est un défi collectif. Les solutions aussi.

Communiquer les changements aux étudiants

Expliquez pourquoi vous redesignez les évaluations. "Ces nouveaux formats testent mieux ce que vous apprenez vraiment." La transparence renforce l'engagement.