En décembre dernier, un enseignant de la faculté de Lyon a demandé à ses quatorze étudiants de Master de travailler, chez eux, sur "l'approche médicale du handicap en Europe". Et surprise : au moment de la correction de ses quatorze copies, il se rend compte que sept - soit 50 % d'entre elles - ont été réalisées grâce à l'intelligence artificielle et la fameuse application ChatGPT.
Cette application est présentée comme donnant des résultats personnalisés et difficilement détectables. Et c'est vrai, le professeur précise que les copies n'étaient pas identiques, l'application s'est bien adaptée aux élèves et a effectué un travail différent à chaque fois, mais les sept dissertations étaient toutes réalisées sur la même structure, avec des arguments similaires et dans le même ordre.
En outre, tous illustraient leurs propos avec le même exemple personnel relatif à une grand-mère ou un grand-père et c'est justement ce qui a mis la puce à l'oreille de l'enseignant. Et c'est ensuite en demandant à l'une des élèves, qui n'a pas pu mentir, que le pot aux roses a été découvert.
Mais alors que risquent les élèves ? La réponse est : rien. Aucune règle n'a été définie concernant des écrits provenant de ce ChatGPT. Ce n'est pas encore considéré comme de la triche. Et c'est bien pour cela que l'enseignant a dévoilé cette affaire. Le ministère de l'Éducation nationale prendrait d'ailleurs très au sérieux le sujet.
En attendant, les étudiants ont bien été notés, mais d'une copie à l'autre, le travail méritait entre 10 et 12 seulement. On est donc loin de l'excellence.
Commentaires
Afin d'assurer la sécurité et la qualité de ce site, nous vous demandons de vous identifier pour laisser vos commentaires.
Cette inscription sera valable sur le site RTL.fr.