«Il faut se remettre en question!»
L'assistant virtuel ChatGPT pourrait forcer les écoles à revoir leur copie

ChatGPT agite les milieux de l'enseignement: des étudiants s'en servent pour tricher lors d'examens. La start-up OpenAI veut adapter le robot pour éviter ce problème. Mais un chercheur propose de faire l'inverse: adapter l'école à l'intelligence artificielle.
Publié: 07.01.2023 à 06:02 heures
|
Dernière mise à jour: 07.01.2023 à 07:57 heures
19 - Lauriane Pipoz - Journaliste Blick.jpeg
Lauriane PipozJournaliste Blick

«Effrayante», «stupéfiante», «hallucinante»… ChatGPT continue de fasciner autant qu’elle inquiète. Cette intelligence artificielle, lancée par la start-up californienne OpenAI en novembre dernier, a la faculté de rédiger des textes qui ressemblent à s’y méprendre à des compositions issues d’une main humaine.

Il n’en fallait pas plus pour que les écoles et universités tirent la sonnette d’alarme, craignant une multiplication de cas de tricherie. Et qu’OpenAI assure vouloir tenter de corriger le tir. La start-up veut intégrer dans ChatGPT un dispositif pour éviter les tentatives de resquillage, promettait l’un de ses employés il y a tout juste quelques jours. Celles-ci pourraient bien être prochainement détectées «grâce à un signal imperceptible dans les choix de mots» de l’assistant virtuel.

Le milieu de l'enseignement doit-il se sentir menacé par une intelligence artificielle? Absolument pas, selon Jamil Alioui, doctorant en philosophie à l’Université de Lausanne (UNIL) et spécialisé dans les technologies. «Si l’on peut tricher, c’est peut-être que l’exercice est stupide», assène-t-il. Loin de s’en inquiéter, il affirme que cette machine pourrait s’avérer très intéressante au niveau de la pédagogie. «ChatGPT nous interroge en retour, explique-t-il. Nous devons nous demander ce que l’on veut obtenir de nos élèves et de la recherche.»

ChatGPT pourrait être une opportunité pour les milieux de l'instruction de se remettre en question, d'après un chercheur.
Photo: Getty Images

«Écrire sous une forme élégante»

Zoomons un peu sur la problématique. Concrètement, pourquoi les institutions se font-elles du mouron? «Le programme permet d’écrire avec une forme parfaite», nous explique Sylvain*, un étudiant en Lettres qui l’a utilisé pour réaliser un sujet à rendre. Il est en effet conçu pour faire des textes soutenus par une structure solide. Des dissertations, par exemple. «D’autant plus que — jusqu’ici en tout cas — il échappe aux programmes qui détectent le plagiat», poursuit-il. Facile donc d’intégrer à son essai un paragraphe issu de l’intelligence artificielle, s’évitant ainsi quelques heures de boulot.

Mais il en est tout autrement pour le fond du travail, puisque le robot n’est pas prévu pour détecter les erreurs. Il récolte simplement des données sur internet et les agence de manière à créer un autre contenu.

En apparence seulement. Car ce n’est, en réalité, qu’un patchwork de ce qui est déjà disponible sur la toile. Et potentiellement un tissu de mensonges. On peut effectivement facilement constater les limites du programme, en lui demandant une tâche qui ne relève pas purement de l’exercice de style. Une bibliographie, par exemple.

Jamil Alioui en a fait l’expérience, en s’adressant à la machine pour en obtenir une sur un sujet philosophique. «En voyant les titres, j’ai d’abord eu peur, pensant être passé à côté d’informations cruciales, glisse-t-il. Mais après plusieurs recherches en ligne, j’ai dû me rendre à l’évidence: cette soi-disant intelligence artificielle avait tout bonnement inventé des références qui n’existent pas!»

L’intelligence?

Mais, en réalité, qu’est-ce que l’intelligence? «Vaste question!, souffle le philosophe. Je peux en tout cas vous dire ce qui ne relève pas de l’intelligence: la multiplication de faits. Car celle-ci peut être produite mécaniquement et l’intelligence n’est pas simplement mécanique.» De même pour la sélection de morceaux de phrases réagencées pour produire un énoncé. «Uniquement de la rhétorique», soutient-il.

Or, les écoles devraient mettre autre chose au cœur de l’instruction, charge-t-il. «Les milieux enseignants doivent réfléchir ce qui est intéressant, reprend-il. Nous devons remettre en cause la conception très classique de l’information comme un fait.» C’est-à-dire? «Si nous affirmons que '1 + 1 = 2', nous énonçons un fait banal. L’important est la raison pour laquelle nous devons faire cette addition, quel problème elle doit résoudre. Si on ne comprend pas pourquoi on calcule, le résultat n’a aucune valeur.»

«Le système en crise»

Actuellement, il est encore trop souvent demandé aux élèves de citer des faits, regrette-t-il. «La machine met ce système en crise», avance-t-il. Et c’est plutôt bon signe, car fonctionner comme des robots présenterait un grand danger pour la suite. «Nous risquons d’homogénéiser la culture et l’histoire. En ne prenant que des faits déjà établis, nous n’inventons rien!»

Prenons un exemple, enchaîne-t-il: «Einstein n’aurait pas pu formuler la relativité générale s’il s’était simplement contenté de manipuler mécaniquement les équations existantes.» Il fallait aller au-delà et les problématiser. De plus, un système qui ne met pas les informations en perspective favoriserait la multiplication d’erreurs. «Si nous reproduisons bêtement ce qui est déjà sans réfléchir si c’est juste, nous pouvons reprendre des informations erronées à l’infini.»

Et le chercheur d’ajouter: «Cela fait longtemps que l’on sait que l’humain pourra être en concurrence avec la machine sur certains points. Or, nous avons jusqu’ici plutôt misé sur la lutte contre le plagiat au lieu d’aller plus loin et de réfléchir à la valeur collective de ce qui était produit.»

Dès lors, il n’y aurait plus de concurrence avec ChatGPT. L’assistant virtuel pourrait servir à recueillir un certain nombre de données. Mais il est incapable de hiérarchiser l’information, ou de faire preuve de créativité. Ce qui laisse encore beaucoup de place au cerveau humain — du moins pour l’instant. «Nous pourrions presque dire que c’est très bien si nous nous rendons compte qu’il est possible de tricher lors d’un examen. C’est que l’enseignement ne pose pas les bonnes questions.»

Renverser la vapeur

Certaines écoles semblent être arrivées à la même conclusion et ont déjà fait le choix de l’adaptation. Ce serait le cas d’un gymnase allemand, selon «Bilan». Le Evangelisch Stiftische Gymnasium, à Gütersloh, dans le nord de l’Allemagne, a décidé de renverser la vapeur: elle a donné comme consigne aux élèves de se servir de ChatGPT pour leur examen. Le test exigeait d’inclure des parties de dissertation rédigées par l’intelligence artificielle, et d’expliquer pourquoi celles-ci avaient été choisies. Un excellent moyen de prendre les potentiels tricheurs de court.

*Nom connu de la rédaction

Vous avez trouvé une erreur? Signalez-la