Des profs corrigent des devoirs faits par ChatGPT

BRUT A TESTÉ. Utiliser l'intelligence artificielle pour faire ses devoirs à sa place, bonne idée ? Pour Brut, trois profs corrigent des devoirs de l'élève ChatGPT. Philo, histoire et maths, voici les résultats.

“Il vaut largement mieux utiliser un outil comme Wikipédia”

 

Ce qui m'a marqué, c'est qu'évidemment, il manque des citations, il manque des transitions, c'est très rigide dans la construction.” Début janvier, des étudiants de Lyon avaient demandé à l’intelligence artificielle ChatGPT de faire leur sujet à leur place. Mais est-ce vraiment une bonne solution ? Est-ce fiable ? Pour le savoir, Brut a demandé à trois enseignants différents, de philosophie, d’histoire et de mathématiques, de produire trois sujets de niveau lycée, et de corriger les copies écrites par ChatGPT.

Chat GPT : c'est quoi l'intelligence artificielle ?


“Au global, il répond à peu près assez bien à la question avec des limites”

 

Marie Robert est professeure de philosophie. “Ce que je trouve assez bluffant quand même, c'est que, bah voilà, les pistes y sont, en fait, les grands courants, les grands mouvements… Il y a des phrases qu'on peut relever, et je les aurais soulignées, encadrées, en disant ‘oui, très bien, le sujet est bien identifié’. Là, très bien, ‘les questions métaphysiques telles que la nature de la réalité, la signification de la vie, défient la compréhension rationnelle’. Donc là, c'est même… C'est plutôt bien dit !”, s’étonne-t-elle. “Par contre, si c'est étoffé, si on ajoute des citations, si on supprime, si on met un peu plus de délicatesse, un peu plus de nuances, un peu plus d'exemples, on peut faire une très bonne copie.

Ils font de l'art avec de l'intelligence artificielle


Yann Bouvier est quant à lui enseignant d’histoire et géopolitique. “Au global, il répond à peu près assez bien à la question avec des limites qu'il va falloir qu'on mette en avant. Ce qui est absolument rédhibitoire, c'est qu'il oublie des éléments essentiels pour traiter le sujet. ‘Comment Louis XIV a-t-il renforcé l'État français ?’ On n'a pas le coup de majesté de 1661, on n'a pas la lutte du Roi-Soleil contre les oppositions religieuses, révocation de l'édit de Nantes, donc c'est ça, surtout, qui fait que la copie est très insuffisante. La grosse limite de l'outil : comme il cherche à imiter, justement, les réponses que pourrait le plus probablement faire l'être humain, c'est qu'il tombe dans tous les panneaux.”

4 choses que l'intelligence artificielle dit des discours d'Emmanuel Macron


L'enseignant lui avait également proposé un second sujet : "Pour quelle raison dit-on que le Moyen Âge fut un temps de recul dans de nombreux domaines ?" “Il nous dit qu'au Moyen Âge, on pensait que la Terre était plate, ce qui est absolument faux.Il parle de peur de l'inconnu, du fait que personne ne voyage au Moyen Âge, il n'y a rien de plus faux, à rebours complet de ce que l’on sait et de ce que les enseignants apprennent à leurs élèves, et ça, ça pose un très gros problème.” Il mettrait la note de 6 sur 20 pour les deux sujets. “On a un devoir absolument hors sujet qui tombe dans toutes les idées reçues, un autre qui limite un peu la casse.

Cet hôpital utilise l'I.A pour améliorer les diagnostics


Un outil aux compétences limités 

 

Le dernier sujet de mathématiques est corrigé par Estelle Kollar, professeure dans cette matière. “Trois fois, il me donne la méthode pour faire, mais il ne le fait pas. Je donne un exemple : ‘L’équation cartésienne peut être trouvée en utilisant la forme paramétrique.’ Et voilà ! Il n’y a pas la réponse, donc ça veut dire que l’élève, il doit se débrouiller après pour trouver. On s’est retrouvé avec un résultat final faux, même si la démarche était bonne. J’ai donné par-ci, par-là des demi-points de raisonnement, mais je n’ai jamais pu donner les points de résolution, qui comptent pour la majorité des points, en fait, donc même en terminale, la note n’aurait pas été bonne.” Elle donne une note finale de 2 sur 9. 

3 news sur l’intelligence artificielle racontées par l’avatar de Remy Buisine


Si on le guide bien du point de vue de la méthode, si on a conscience de ses limites et si on comprend que ce n’est absolument pas un outil qui est là pour nous livrer une information, mais que son but est tout autre, ce pour quoi il a été programmé, il est très bon, mais attention à ne pas l’utiliser dans un autre but. Il vaut largement mieux utiliser un outil comme Wikipédia, qui, pour le coup, propose des articles souvent sourcés, relus, avec la recherche d’un consensus, qu’utiliser ChatGPT, qui semble croiser les outils sérieux avec le forum du coin”, conclut Yann Bouvier. 

Comment la Fondation 101 améliore la prise en charge des patients grâce à l'IA

Ma liste

list-iconAjouter à ma liste
avatar
Brut.