France
This article was added by the user . TheWorldNews is not responsible for the content of the platform.

Un an d’IA à l’université, un an de chaos et de confusion

“Cent pour cent intelligence artificielle” (IA). Voilà la conclusion du logiciel concernant la copie d’un étudiant. Un enseignant du cursus que je dirige [en cinéma, médias et ingénierie à l’université Washington, à Saint-Louis] est tombé sur ce résultat et m’a demandé quoi faire. Un deuxième a fait remonter le même constat – 100 % IA – pour un autre devoir du même étudiant, et s’est demandé : “Qu’est-ce que ça veut dire ?” Je n’en savais rien. Je ne sais toujours pas.

La question en appelle quantité d’autres : peut-on être certain qu’un étudiant a eu recours à une IA ? Que signifie au juste “utiliser une IA” pour composer un texte ? À partir de quel niveau cela relève-t-il de la tricherie ? Sans compter que le logiciel qui avait incriminé l’étudiant n’est pas exempt d’interrogations de notre part : Canvas, notre plateforme pour l’enseignement, fonctionne avec Turnitin, un programme bien connu de détection du plagiat qui vient d’intégrer un nouvel algorithme d’identification de l’IA. Les accusations de tricherie émanent donc elles-mêmes d’un assemblage de boîtes noires de technologies pour l’éducation.

Voilà à quoi ressemble la fin de cette première année universitaire de l’ère ChatGPT : un maelstrom d’incriminations et de confusion. Ces dernières semaines, j’ai discuté avec des dizaines de professeurs et d’étudiants aujourd’hui confrontés à un déferlement de “tricheries à l’IA”. Leurs récits m’ont laissé pantois. Vu des campus, tout semble indiquer qu’il est à peu près impossible de différencier les usages légitimes de l’IA de ses utilisations frauduleuses, ou d’identifier les tricheurs.

L’aide aux devoirs dans les choux

Il fut un temps où les étudiants se passaient des copies de devoir ou d’examen. Puis, avec Internet, ils ont commencé à sous-traiter leurs exercices. Plusieurs services en ligne ont commercialisé ces prestations. Aujourd’hui, des élèves peuvent acheter des réponses auprès d’un site d’“aide aux devoirs” comme Chegg – une pratique qu’ils appellent “chegging”. L’arrivée à l’automne dernier des chatbots dopés à l’IA a ringardisé ces méthodes de tricherie. “Nous pensons que [ChatGPT] affecte notre taux de croissance”, a reconnu le PDG de Chegg au début de mai. L’entreprise a depuis perdu près de 1 milliard de dollars de sa valeur sur le marché.

Ce bouleversement pourrait toutefois être une aubaine pour d’autres sociétés. En 2018, Turnitin engrangeait déjà plus de 100 millions de dollars de recettes annuelles en aidant les professeurs à détecter la tricherie. Son logiciel, intégré à la plateforme sur laquelle les étudiants soumettent leurs devoirs, compare chaque copie avec une base de données (comprenant les devoirs d’autres étudiants déjà transmis à Turnitin) et signale les éventuels copieurs. Turnitin, qui revendique plus de 15 000 institutions et établissements utilisateurs dans le monde, a été racheté en 2019 pour 1,75 milliard de dollars [1,63 milliard d’euros]. Le mois dernier, il a intégré un module de détection d’IA à son logiciel. Les mesures pour contrer l’IA se mettent en place – avec le concours d’autres IA.

Alors que s’achève le premier semestre des chatbots, le nouveau logiciel de Turnitin signale un déluge de tricheries : cette copie a été “rédigée à 18 % par une IA”, celle-là est “100 % IA”. Mais que signifient réellement ces chiffres ? Aussi étrange – et même stupéfiant – que cela puisse paraître, on ne sait pas vraiment. Dans tous les cas de devoirs “100 % IA” qui m’ont été signalés, les étudiants affirment ne pas avoir laissé ChatGPT ou toute autre IA rédiger la totalité de leur travail.

98 % de certitude

Turnitin soutient pourtant que ce signalement signifie effectivement que 100 % du document – c’est-à-dire chacune des phrases qui le composent – a été généré par un programme informatique. Avec un degré de certitude de 98 %. Une porte-parole de l’entreprise reconnaît par e-mail que “les textes rédigés avec des programmes utilisant des algorithmes ou d’autres outils informatiques”, notamment des correcteurs de syntaxe et des traducteurs automatiques, peuvent être signalés à tort comme frauduleux. De même que certains écrits “authentiques” peuvent ressembler à s’y méprendre à des contenus générés par des IA. “Certaines personnes écrivent juste de manière très