Sous pression: les étudiants doivent désormais prouver qu’ils n’ont pas triché avec l’IA
À force de vouloir détecter l’usage d’IA, certains établissements infligent des sanctions à ceux qui n’en ont jamais utilisé.
Les outils de détection d’IA, comme ceux proposés par Turnitin, se multiplient dans les écoles et universités. Le problème? Leur fiabilité est loin d’être garantie. Selon plusieurs études, entre 4 et 9% des textes écrits par des humains sont faussement identifiés comme générés par IA. Une marge d’erreur inacceptable quand les conséquences peuvent aller jusqu’à l’échec d’un cours ou le report de l’obtention d’un diplôme.
Quand un texte est suspecté d’avoir été produit par IA, c’est souvent à l’élève de prouver son innocence. Résultat: certains vont jusqu’à enregistrer des vidéos de plusieurs heures documentant leur processus d’écriture, ou compilent des captures d’écran minutées pour démontrer leur bonne foi. Selon le NY Times, Une étudiante a même dû créer une vidéo YouTube de 93 minutes simplement pour éviter un zéro injustifié.
Une paranoïa généralisée
Ce climat de suspicion génère un stress considérable chez les étudiants. Nombre d’entre eux avouent être désormais anxieux à chaque remise de devoir, redoutant d’être injustement accusés.
Face à ces dérives, plusieurs universités américaines ont tiré la sonnette d’alarme. Berkeley, Georgetown ou encore Vanderbilt ont décidé de désactiver la détection d’IA dans leurs outils de contrôle, évoquant des préoccupations liées à la fiabilité et à la confiance étudiante. D’autres, comme l’université de Buffalo, persistent mais rappellent qu’un score d’IA ne peut à lui seul motiver une sanction.
L’utilisation de ces détecteurs change profondément la relation entre professeurs et élèves. Ce qui relevait autrefois d’un contrat de confiance, l’idée que l’élève est présumé honnête jusqu’à preuve du contraire, laisse désormais place à un climat de suspicion.
Source : The New York Times