IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La Chine bloque les outils d'IA pendant les examens nationaux d'entrée à l'université pour empêcher la tricherie et garantir l'équité,
L'IA générative perturbe les usages et les évaluations en milieu scolaire

Le , par Mathis Lucas

8PARTAGES

4  0 
La Chine bloque les outils d'IA pendant les examens nationaux d'entrée à l'université pour empêcher la tricherie et garantir l'équité
l'IA générative perturbe les usages et les évaluations en milieu scolaire

La Chine a exigé de ses entreprises technologiques qu'elles désactivent les outils d'IA générative durant la période des examens nationaux d'entrée à l'université. Environ 13,3 millions d'apprenants passent les tests de quatre jours du Gaokao pour obtenir des places limitées dans les universités du pays. L'initiative vise à empêcher la tricherie ou toute aide induite par la technologie, et ainsi garantir l'équité de cette épreuve nationale de très haute importance. L'IA générative a perturbé les usages et les évaluations en milieu scolaire, obligeant certains établissements à revenir aux examens oraux et aux épreuves manuscrites. Le sujet suscite un grand débat.

Du 7 au 10 juin, plus de 13,3 millions d'élèves chinois se présentent aux rigoureux examens Gaokao. Il s'agit d'un concours national exigeant durant lequel chaque élève s'échine pour décrocher l'une des places limitées dans les universités chinoises. Le Gaokao interdit déjà aux étudiants d'utiliser des appareils tels que les téléphones et les ordinateurs portables pendant les épreuves qui durent plusieurs heures. Cette année, l'accès aux chatbots d'IA a été bloqué.

La désactivation des outils d'IA constitue un filet de sécurité supplémentaire pour empêcher la tricherie pendant la période des examens. Les entreprises chinoises spécialisées dans l'IA ont donc mis en pause certaines fonctions des chatbots pour empêcher les élèves de les utiliser pour tricher lors du Gaokao.

Plusieurs outils d'IA, dont Qwen d'Alibaba et Doubao de ByteDance, ont arrêté les fonctions de reconnaissance d'images pour répondre aux questions sur les copies d'examen, tandis que Yuanbao de Tencent et Kimi de Moonshot ont entièrement suspendu les services de reconnaissance d'images pendant les heures d'examen. Les chatbots refusent de répondre aux questions sur les épreuves d'examen, ajoutant que cela n'est pas conforme aux règles.

Couper l'accès aux chatbots d'IA pour garantir l'intégrité des examens

Selon Bloomberg, lorsqu'on a demandé à Qwen d'Alibaba de répondre à des questions concernant la photo d'une épreuve d'examen, il a répondu que le service est temporairement gelé pendant les heures d'examen, du 7 au 10 juin. Doubao de ByteDance a déclaré que la photo téléchargée n'est pas « conforme aux règles ». Enfin DeepSeek a déclaré que son service n'est pas disponible à certaines heures pour garantir l'équité de l'examen d'entrée à l'université.



« Les candidats à l'examen d'entrée à l'université sont dans l'embarras. Je ne peux pas utiliser DeepSeek pour télécharger des photos, je dois à nouveau télécharger ChatGPT, j'espère que vous allez tous à l'université », peut-on lire sur Weibo. Beaucoup ont salué l'approche, affirmant qu'elle aide à évaluer le véritable niveau des apprenants. « Cela ressemble à ce que ferait une nation dotée d'un minimum d'esprit critique et de compétence », a écrit un critique.

La suspension de l'accès aux outils d'IA n'est pas le seul outil que les autorités scolaires prévoient d'utiliser pour empêcher la tricherie pendant la semaine d'examen du Gaokao, qui peut décider de tout l'avenir d'un jeune. Plusieurs régions auraient également déclaré qu'elles utiliseraient des outils de surveillance pilotés par l'IA pour repérer les « comportements anormaux », tels que les chuchotements ou les regards répétés entre étudiants, pendant les examens.

Dans la province de Jiangxi, par exemple, les images seront visionnées après l'examen et « toute violation ou mauvaise conduite sera traitée strictement conformément aux réglementations en vigueur ». Fin mai, les médias locaux ont rapporté que les autorités chinoises ont également annoncé des contrôles d'entrée plus stricts aux points d'examen, une identification biométrique, un contrôle renforcé des appareils numériques et des bloqueurs de signaux radio.

La tricherie par l'IA devient une préoccupation majeure dans les écoles

Pour les élèves chinois de terminale, le Gaokao, qui a lieu chaque année en juin, est le seul moyen d'obtenir une place dans une université en Chine. Le Gaokao est considéré comme le test le plus important du pays, en particulier pour les étudiants des petites villes et des familles à faible revenu qui manquent de ressources. Un faux pas lors de ce concours peut nécessiter une année supplémentaire au lycée ou changer complètement l'avenir d'un adolescent.

Ainsi, les autorités scolaires craignent que les étudiants n'essaient d'améliorer leurs chances grâce à l'IA. Bien que la Chine encourage les enseignants à cultiver les talents en IA, elle a déclaré que les élèves ne devraient pas utiliser de contenu généré par l'IA comme réponses aux devoirs et aux examens.

Mais le problème ne touche pas que la Chine. Grâce à la disponibilité croissante des chatbots, il est plus facile que jamais pour les étudiants du monde entier de tricher dans leurs études. Aux États-Unis, les écoles tentent de remédier à ce problème en réintroduisant les examens sur papier. Le Wall Street Journal a rapporté en mai que les ventes de « blue books » ont connu un véritable boom dans les universités du pays au cours des deux dernières années.

Aux États-Unis, le blue book est un petit cahier à couverture bleue utilisé par les étudiants pour écrire leurs examens, notamment les dissertations ou les réponses longues lors de partiels. Ils sont souvent fournis ou exigés par les universités pendant les examens sur papier, surtout en sciences humaines ou en droit. Le retour en force de ces cahiers indique que les établissements cherchent à limiter la triche liée à l'usage des outils numériques et de l'IA.

Selon des études publiées ces dernières années, l'intégration de l'IA dans les cursus universitaires amène le système éducatif à un « point de crise ». La facilité déconcertante avec laquelle des outils comme ChatGPT peuvent produire des dissertations, résoudre des problèmes complexes ou encore générer du code informatique bouscule les méthodes d'évaluation traditionnelles et soulève des inquiétudes majeures quant à l'intégrité de l'apprentissage.

L'IA générative perturbe les usages et les évaluations en milieu scolaire

Selon OpenAI, environ 400 millions de personnes utilisent ChatGPT chaque semaine. Les étudiants sont les utilisateurs les plus courants des outils d'IA. Elle propose une version gratuite et des services avancés coûtant 200 $ par mois. OpenAI espère que les apprenants prendront l'habitude de consulter ChatGPT chaque fois qu'ils auront une question, un rôle joué par Google depuis près de trente ans. Mais cela devient un casse-tête pour les écoles.

Selon une enquête réalisée l'année dernière par Impact Research, près de 40 % des élèves des collèges et des lycées ont déclaré utiliser l'IA sans l'autorisation de leur professeur pour réaliser leurs travaux. Parmi les étudiants de l'enseignement supérieur qui utilisent l'IA, le chiffre est de près de la moitié. Selon une analyse interne publiée par OpenAI, ChatGPT est fréquemment utilisé par les étudiants de tout type pour les aider à rédiger leurs devoirs.

Les étudiants, qui travaillent sur des écrans en dehors de la surveillance d'un adulte, doivent décider s'ils veulent utiliser des outils d'IA qui peuvent clandestinement leur donner les meilleures notes, ou s'ils veulent s'y opposer. Les restrictions d'âge fixées par les créateurs des outils d'IA sont facilement contournées. L'impact de la technologie en milieu scolaire est si important que les enseignants craignent aujourd'hui une génération d'élèves assistés par l'IA.

La prestigieuse université parisienne Sciences Po a banni l'usage de ChatGPT et des outils assimilés, invoquant les risques de « fraude et plagiat ». Dans un courriel adressé à tous, la direction a rappelé que « sans référence explicite, les étudiants ont interdiction d'utiliser ce logiciel pour tout travail écrit ou présentation », hors activités encadrées par un enseignant. En cas d'entorse à la règle, l'université prévoit des sanctions qui peuvent aller jusqu'à l'exclusion.

« Le problème, c'est que tous les devoirs faits à la maison seront désormais reçus avec un doute. Les bons devoirs seront par défaut soupçonnés », déplore Médéric Gasquet-Cyrus, un maître de conférences de Aix-Marseille Université. Mais les impacts ne se limitent pas là. La confiance entre élèves et professeurs en prend également un coup, et certains enseignants ont le sentiment de jouer à un jeu de cache-cache épuisant pour débusquer l'IA dans les copies.

Conclusion

À l'ère de l'IA générative, les établissements scolaires et les universités repensent leurs méthodes et leurs pratiques pour mieux répondre aux nouveaux enjeux technologiques et éducatifs. L'IA remet en question la manière d'évaluer les compétences, surtout avec des outils comme ChatGPT qui peuvent aider à faire les devoirs ; il faut donc développer des formes d'évaluation plus créatives, centrées sur le raisonnement ou qui font appel à l'esprit critique.

L'IA générative n'est ni bonne ni mauvaise en soi. Elle n'est qu'un miroir de nos pratiques pédagogiques, de nos choix politiques et de nos ambitions pour l'école. Selon certains, le véritable enjeu n'est pas de savoir si l'on doit interdire ou autoriser l'IA, mais comment l'encadrer, l'utiliser et la questionner.

Dans le même temps, l'impact de l'IA sur les apprenants inquiète profondément. Une étude publiée l'année dernière indique que les étudiants qui utilisent l'IA sont moins productifs et ont peu de chances de réussir à l'avenir. Les données montrent que les étudiants moins performants utilisent davantage l'IA pour combler leurs lacunes en matière de compétences. Mais l'IA générative encourage la tricherie et rend les étudiants paresseux et incompétents.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la fermeture des chatbots d'IA pendant la durée des examens en Chine ?
Pensez-vous que les écoles françaises devraient adopter la même approche durant la période des examens ?
Comment garantir l'intégrité de l'apprentissage dans un monde où l’IA peut produire des travaux en quelques secondes ?

Voir aussi

Faut-il craindre une génération d'élèves assistés par l'intelligence artificielle pour tricher ? L'IA gagne du terrain en milieu scolaire et la technologie suscite de vives inquiétudes chez les enseignants

Enseigner face à l'IA : De la transmission du savoir à la lutte contre la triche automatisée, l'utilisation de l'IA par les étudiants menace-t-elle l'intégrité de l'apprentissage ?

ChatGPT a pris de cours les écoles qui étaient mal préparées à l'irruption de cette technologie dans le quotidien des élèves, l'IA générative a perturbé les usages et les évaluations en milieu scolaire
Vous avez lu gratuitement 36 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 10/06/2025 à 13:33
L'IA n'encourage pas la tricherie. Elle la facilite, ce n'est pas pareil.

Cela dit, on est en pleine exploration de ses effets sur la population et aussi en pleine transition. Les résultats d'aujourd'hui peuvent être complètement contredits par ceux de demain. L'IA peut autant rendre compétent plus efficacement que faire stagner dans l'incompétence. Devenir bon a toujours nécessité de la pratique, et à moins qu'on arrive à trouver un moyen de reproduire les effets de la pratique (adaptation du cerveau, des muscles, automatismes, etc.) : une personne qui se repose majoritairement sur l'IA ne pratiquera que la délégation de son travail à un autre, là où celui qui creuse par lui-même avant de demander à l'IA pourra monter les échelons dans la technique visée.

On n'a pas attendu l'IA pour ça : il y a ceux qui se contentent de copier sur les autres et ceux qui font le boulot par eux-même.

La Chine interdit l'usage de l'IA, donc elle prend le parti de la pratique dans la technique. Aux US on favorise son usage, donc ils prennent le parti de la pratique de délégation. Reste à voir comment cela va impacter les pratiques et se préciser. Il faut bien des précurseurs pour étudier la chose.
1  0