Les préoccupations liées à la tricherie suscitées par les chatbots semblent avoir été exagérées, d'après une récente étude. Les chercheurs de l'université de Stanford indiquent que l'utilisation d'outils d'intelligence artificielle tels que ChatGPT n'a pas entraîné une augmentation des cas de tricherie dans les écoles secondaires. L'introduction du chatbot d'IA ChatGPT a suscité des inquiétudes quant à la possibilité d'une tricherie généralisée parmi les lycéens et les étudiants. Certains établissements scolaires ont réagi en bloquant rapidement l'accès à ChatGPT sur les ordinateurs fournis par l'école et sur le réseau Wi-Fi de l'établissement pour prévenir le plagiat automatisé.
Selon l'étude de Stanford, ces préoccupations semblent avoir été exagérées, du moins dans le contexte des écoles secondaires. Les enquêtes menées dans plus de 40 lycées cette année révèlent que les taux de tricherie restent similaires à ceux des années précédentes, avec 60 à 70 % des élèves déclarant avoir triché récemment. Denise Pope, maître de conférences à la Stanford Graduate School of Education, souligne que malgré les inquiétudes initiales, les données ne montrent pas de changement significatif. La popularité croissante des chatbots d'IA, tels que ChatGPT développé par OpenAI, a suscité des attentes quant à une révolution de l'éducation, mais la recherche de Stanford suggère que ces attentes pourraient être exagérées.
Réflexions sur les outils d'IA : Évolution de l'éducation et dilemmes universitaires
Un professeur à Lyon a découvert des similitudes curieuses dans les devoirs rendus par la moitié de ses étudiants, qui avaient utilisé ChatGPT pour rédiger leurs dissertations. L'utilisation généralisée de ChatGPT par les étudiants pour leurs devoirs, y compris les essais, a pris les universités par surprise. Les enseignants, dont Darren Hudson Hick, professeur adjoint de philosophie à l'université Furman, ont partagé leurs expériences sur les réseaux sociaux, révélant que la détection de l'utilisation de l'IA dans les travaux académiques est devenue un défi. Bien que le style de rédaction de ChatGPT soit distinct, il reste difficile de prouver son utilisation sans un logiciel de vérification de plagiat. La capacité à différencier l'écriture humaine de celle générée par une machine pourrait influencer les politiques universitaires sur l'utilisation de l'IA dans les devoirs des étudiants.
ChatGPT est qualifié de « véritablement un outil sophistiqué de plagiat » et de « moyen de contourner l'apprentissage » par Noam Chomsky, le célèbre intellectuel et chercheur américain. Il a également exprimé l'opinion que l'utilisation de technologies avancées par les étudiants reflète un dysfonctionnement du système éducatif. Ces commentaires ont été partagés lors d'une entrevue sur la chaîne YouTube EduKitchen, où Chomsky a été invité à discuter de ses réflexions sur ChatGPT d'OpenAI, un chatbot qui a attiré l'attention depuis son introduction en novembre de l'année dernière.
Un professeur de l'université de Caroline du Sud alerte sur l'utilisation de ChatGPT, le chatbot d'IA d'OpenAI, par un étudiant pour rédiger une dissertation. Il estime que cette pratique, devenue répandue, représente une menace pour l'enseignement supérieur déjà confronté à une tricherie endémique. Le professeur, Darren Hudson Hick, a partagé ses préoccupations sur Facebook, révélant que d'autres enseignants ont également constaté des cas similaires. Le déploiement de ChatGPT a surpris les universités, qui se trouvent désormais confrontées à la détection de l'utilisation de cette technologie dans les travaux académiques.
L'auteur, Stephen Dobson, professeur et doyen à l'université CQUniversity en Australie, suggère dans un article d'opinion que les universités devraient revenir aux examens oraux pour contrer les risques de plagiat et de tricherie liés à l'IA générative, notamment à ChatGPT. Il souligne que ce type d'évaluation éliminerait efficacement la possibilité pour les étudiants de soumettre des travaux générés par des chatbots d'IA. Bien que l'IA, y compris ChatGPT, soit de plus en plus utilisée dans les universités pour automatiser diverses tâches, son adoption suscite des préoccupations quant à son impact sur les examens traditionnels. Des recherches récentes révèlent que de plus en plus d'étudiants utilisent ChatGPT pour leurs devoirs, soulevant des questions sur l'intégrité académique. Certains rapports suggèrent même que les productions générées par l'IA peuvent parfois surpasser la qualité des travaux rédigés par des humains sans assistance technologique. Cette situation crée des défis pour l'enseignement supérieur, où l'adaptation à l'influence de ChatGPT sur les étudiants est un sujet de débat et d'incertitude au sein des écoles.
Actuellement, les résultats de la recherche menée par l'université de Stanford et le récent rapport du Pew Research Center remettent en question l'idée selon laquelle les chatbots d'IA sont en train de perturber les écoles. Selon les constatations du Pew, de nombreux adolescents ne possèdent qu'une connaissance limitée de ChatGPT, et la majorité affirme ne jamais l'avoir utilisé pour leurs travaux scolaires. Il est cependant possible que ces tendances évoluent au fil du temps, à mesure que de plus en plus de lycéens deviennent familiers avec les outils d'intelligence artificielle.
Une enquête récente du Pew Research Center confirme ces résultats, indiquant que près d'un tiers des adolescents interrogés n'ont jamais entendu parler de ChatGPT, et seulement 13 % déclarent l'avoir utilisé pour leurs travaux scolaires. Les résultats montrent également que la majorité des adolescents qui connaissent ChatGPT n'ont pas recouru à cet outil pour leurs travaux scolaires, suggérant que les craintes de tricherie massive liées aux chatbots pourraient être exagérées.
Cette nouvelle perspective sur l'utilisation des chatbots dans les écoles pourrait influencer les discussions futures pour se concentrer davantage sur l'enseignement aux élèves sur la compréhension et l'utilisation critique des nouvelles technologies plutôt que sur la crainte de la tricherie généralisée.
Denise Pope et Victor Lee, professeur associé au GSE, discutent du problème de la tricherie chez les étudiants, soulignant que les causes sont multiples, allant des difficultés académiques au sentiment de surcharge de travail. Pope suggère que la tricherie est souvent le symptôme d'un problème systémique plus profond et propose que les stratégies visant à accroître l'engagement des élèves et à les valoriser soient plus efficaces que des mesures strictes contre l'IA.
Elle estime que l'utilisation de chatbots tels que ChatGPT pourrait être considérée comme une ressource d'aide plutôt que comme de la tricherie, soulignant la nécessité d'une discussion éthique sur son utilisation. Lee exprime les préoccupations des chefs d'établissement face à l'utilisation de la technologie par les élèves, notant que des interdictions et des investissements dans des logiciels de détection de l'IA se sont révélés inefficaces.
Il insiste sur la nécessité d'éduquer les élèves à comprendre et à réfléchir de manière critique sur cette technologie. En réponse, à Stanford, des ressources gratuites sont développées pour aider les enseignants à aborder ces questions dans leurs cours existants.
Parmi les élèves du secondaire qui ont admis avoir utilisé un chatbot d'intelligence artificielle, les chercheurs de Stanford ont constaté que de 55 à 77 % l'ont employé pour générer des idées pour des articles, des projets ou des devoirs. Environ 19 à 49 % ont déclaré l'utiliser pour éditer ou compléter une partie d'un article, tandis que 9 à 16 % ont indiqué l'utiliser pour rédiger l'intégralité d'un article ou d'un autre devoir.
Selon les chercheurs, ces résultats pourraient influencer la direction des discussions sur les chatbots dans les écoles, en mettant moins l'accent sur les préoccupations de tricherie et davantage sur la manière d'aider les élèves à comprendre, utiliser et penser de manière critique à propos des nouveaux outils d'intelligence artificielle.
« La perspective de l'IA peut être envisagée de différentes manières, pas seulement comme une tentation incontrôlable qui compromet tout », a déclaré Victor Lee, professeur associé à la Stanford Graduate School of Education, qui se penche sur les expériences d'apprentissage de l'IA et a dirigé la récente recherche sur la tricherie avec le Dr Pope. « Il existe de nombreux autres sujets qui méritent d'être abordés dans les écoles. »
Alors que les écoles travaillent encore sur l'établissement de règles d'utilisation acceptables pour les outils d'IA, les étudiants développent des opinions nuancées sur l'utilisation de ChatGPT à des fins scolaires. Selon l’enquête de Pew, seulement 20 % des adolescents de 13 à 17 ans estiment acceptable que les élèves utilisent ChatGPT pour rédiger des dissertations. En revanche, près de 70 % estiment acceptable que les élèves utilisent le chatbot d'IA pour effectuer des recherches sur de nouveaux sujets.
Repenser les mesures de précaution à la lumière des conclusions de Stanford
L'étude de l'université de Stanford, remettant en question les préoccupations liées à la tricherie suscitées par les chatbots, offre une perspective intéressante sur l'impact réel de ces outils d'intelligence artificielle dans les écoles secondaires. La conclusion selon laquelle l'utilisation de chatbots tels que ChatGPT n'a pas entraîné une augmentation significative de la tricherie est rassurante, mais elle soulève également des questions sur la réaction initiale des établissements scolaires.
D'une part, la réaction rapide de certaines écoles, notamment à Los Angeles, Seattle et New York, en bloquant l'accès à ChatGPT, semble avoir été basée sur des préoccupations légitimes quant à la préservation de l'intégrité académique. Cependant, si les enquêtes de Stanford indiquent que les taux de tricherie n'ont pas sensiblement augmenté, cela soulève des questions sur la proportionnalité des mesures prises en réponse à une menace perçue.
Bien que l'étude apporte un éclairage positif sur l'utilisation des chatbots dans les écoles secondaires, elle souligne de plus la nécessité de prendre des décisions éclairées basées sur des données concrètes plutôt que sur des craintes potentiellement exagérées. Les écoles pourraient bénéficier d'une approche plus nuancée, encourageant une discussion éthique sur l'utilisation de ces technologies et développant des stratégies éducatives qui aident les élèves à comprendre et à utiliser ces outils de manière responsable.
Source : What do AI chatbots really mean for students and cheating ? Stanford Graduate School of Education
Et vous ?
Les conclusions de l'étude des chercheurs de l'université de Stanford sont-elles pertinentes ?
Pensez-vous que les inquiétudes concernant la tricherie liée aux chatbots sont exagérées, comme le suggère l'étude ?
Voir aussi :
Pourquoi les universités devraient revenir aux examens oraux à l'ère de l'IA et de ChatGPT, un doyen d'université affirme que cela élimine systématiquement les risques de plagiat et de tricherie
Noam Chomsky estime que ChatGPT est essentiellement « un outil high-tech de plagiat », l'ancien professeur au MIT pense que ChatGPT apporte un « moyen d'éviter d'apprendre »
Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé », il estime que ces outils pourraient aggraver la tricherie dans l'enseignement supérieur
Lyon : ChatGPT utilisé par la moitié des élèves de Master d'un professeur pour rédiger leurs devoirs. « Cette pratique m'inquiète. Elle pose un véritable problème d'intégration des savoirs »
Les craintes de tricherie suscitées par les chatbots seraient exagérées, les taux de tricherie seraient similaires à ceux des années précédentes,
Selon une nouvelle étude de l'université de Stanford
Les craintes de tricherie suscitées par les chatbots seraient exagérées, les taux de tricherie seraient similaires à ceux des années précédentes,
Selon une nouvelle étude de l'université de Stanford
Le , par Bruno
Une erreur dans cette actualité ? Signalez-nous-la !