Dans les années 1980 et 1990, si un lycéen n’avait pas de likelihood, manquait de temps et cherchait une resolution de facilité, tricher demandait de réels efforts. Vous aviez plusieurs itinéraires différents. Vous pouvez provider votre frère aîné clever de faire le travail à votre place ou, à la manière de Again to College (1989), vous pouvez même embaucher un écrivain professionnel. Vous pourriez demander à un ami audacieux de trouver le corrigé des devoirs sur le bureau du professeur. Ou encore, vous aviez les excuses classiques pour vous opposer : mon chien a mangé mes devoirs, and so on.
L’avènement d’Web a rendu les choses plus faciles, mais pas sans effort. Des websites comme CliffNotes et LitCharts permettent aux étudiants de parcourir des résumés lorsqu’ils ont sauté la lecture. Les plateformes d’aide aux devoirs telles que GradeSaver ou CourseHero proposaient des options aux problèmes courants des manuels de mathématiques.
Le level commun de toutes ces stratégies était l’effort : il y avait un coût à ne pas faire son travail. Parfois, tricher représentait plus de travail que simplement avoir fait le travail soi-même.
Aujourd’hui, le processus s’est réduit en trois étapes : connectez-vous à ChatGPT ou à une plateforme similaire, collez l’invite, obtenez la réponse.
Les consultants, les mother and father et les éducateurs ont passé les trois dernières années à s’inquiéter du fait que l’IA rendait la triche trop facile. Un rapport massif de Brookings publié mercredi suggère qu’ils n’étaient pas suffisamment inquiets : le problème le plus profond, selon le rapport, est que l’IA est si douée pour tricher qu’elle provoque un « grand débranchement » de leur cerveau.
Le rapport conclut que la nature qualitative des risques liés à l’IA, notamment l’atrophie cognitive, « l’intimité artificielle » et l’érosion de la confiance relationnelle, éclipse actuellement les avantages potentiels de la technologie.
“Les élèves ne peuvent pas raisonner. Ils ne peuvent pas penser. Ils ne peuvent pas résoudre les problèmes”, a déploré un enseignant interrogé dans le cadre de l’étude.
Les résultats proviennent d’une étude “pré-mortem” d’un an menée par le Middle for Common Schooling de la Brookings Establishment, un format uncommon à utiliser par Brookings, mais ils ont déclaré préférer attendre une décennie pour discuter des échecs et des succès de l’IA à l’école. S’appuyant sur des centaines d’entretiens, des groupes de dialogue, des consultations d’consultants et un examen de plus de 400 études, le rapport représente l’une des évaluations les plus complètes à ce jour sur la manière dont l’IA générative remodèle l’apprentissage des étudiants.
« Restauration rapide de l’éducation »
Le rapport, intitulé « Une nouvelle route pour les étudiants dans un monde d’IA : prospérer, préparer, protéger », prévient que la nature « sans friction » de l’IA générative est sa caractéristique la plus pernicieuse pour les étudiants. Dans une salle de classe traditionnelle, la lutte pour synthétiser plusieurs articles pour créer une thèse originale ou résoudre un problème complexe de pré-calcul est exactement le level où l’apprentissage se produit. En supprimant ce problème, l’IA agit comme le « quick meals de l’éducation », a déclaré un knowledgeable. Il fournit des réponses qui sont pratiques et satisfaisantes sur le second, mais globalement creuses sur le plan cognitif sur le lengthy terme.
Alors que les professionnels défendent l’IA comme un outil leur permettant d’effectuer un travail qu’ils savent déjà faire, le rapport notice que pour les étudiants, « la state of affairs est fondamentalement inversée ».
Les enfants « déchargent cognitivement » des tâches difficiles sur l’IA ; amener OpenAI ou Claude non seulement à faire leur travail, mais aussi à lire des passages, à prendre des notes ou même simplement à écouter en classe. Le résultat est un phénomène que les chercheurs appellent « dette cognitive » ou « atrophie », dans lequel les utilisateurs reportent l’effort psychological en s’appuyant de manière répétée sur des systèmes externes tels que de grands modèles de langage. Un étudiant a résumé simplement l’attrait de ces outils : “C’est easy. Vous n’avez pas besoin d’utiliser votre cerveau”.
En économie, nous comprenons que les consommateurs sont « rationnels » ; ils recherchent une utilité maximale au moindre coût pour eux. Les chercheurs soutiennent que nous devons également comprendre que le système éducatif, tel qu’il est, est conçu avec un système d’incitation similaire : les étudiants recherchent une utilité maximale (c’est-à-dire les meilleures notes), au moindre coût (en temps) pour eux. Ainsi, même les étudiants les plus performants sont poussés à utiliser une technologie qui améliore « manifestement » leur travail et leurs notes.
Cette tendance crée une boucle de rétroaction optimistic : les étudiants confient des tâches à l’IA, voient des résultats positifs dans leurs notes et deviennent par conséquent plus dépendants de l’outil, ce qui entraîne un déclin mesurable des capacités de pensée critique. Les chercheurs affirment que de nombreux étudiants vivent désormais dans un état qu’ils appellent « mode passager », dans lequel les étudiants sont physiquement à l’école mais ont « effectivement abandonné leurs études – ils font le strict minimal nécessaire ».
Jonathan Haidt a un jour décrit les applied sciences antérieures comme un « grand recâblage » du cerveau ; rendre l’expérience ontologique de la communication détachée et décontextualisée. “Aujourd’hui, les consultants craignent que l’IA ne représente un “grand débranchement” des capacités cognitives. Le rapport identifie un déclin de la maîtrise du contenu, de la lecture et de l’écriture, les “piliers jumeaux de la pensée profonde”. Les enseignants signalent une “amnésie induite par le numérique” dans laquelle les élèves ne peuvent pas se memento des informations qu’ils ont soumises parce qu’ils ne les ont jamais mémorisées.
Les compétences en lecture sont particulièrement menacées. La capacité de « persistence cognitive », définie comme la capacité à maintenir l’consideration sur des idées complexes, est diluée par la capacité de l’IA à résumer des textes longs. Un knowledgeable a noté le changement d’perspective des étudiants : « Les adolescents disaient : ‘Je n’aime pas lire.’ Maintenant, c’est ‘Je ne sais pas lire, c’est trop lengthy'”.
De même, dans le domaine de l’écriture, l’IA produit une « homogénéité des idées ». Des recherches comparant les essais humains à ceux générés par l’IA ont révélé que chaque essai humain supplémentaire apportait deux à huit fois plus d’idées uniques que celles produites par ChatGPT.
Tous les jeunes ne considèrent pas que ce sort de tricherie est répréhensible. Roy Lee, 22 ans, PDG de la startup d’IA Cluely, a été suspendu de Columbia après avoir créé un outil d’IA pour aider les ingénieurs logiciels à tricher lors des entretiens d’embauche. Dans le manifeste de Cluely, Lee admet que son outil « triche », mais ajoute que « la calculatrice aussi. Le correcteur orthographique aussi. Google aussi. Chaque fois que la technologie nous rend plus intelligents, le monde panique. »
Les chercheurs affirment cependant que même si une calculatrice ou un correcteur orthographique sont des exemples de déchargement cognitif, l’IA les « turbocharge ».
« Les LLM, par exemple, offrent des capacités allant bien au-delà des outils de productivité traditionnels dans des domaines nécessitant auparavant des processus cognitifs uniquement humains », ont-ils écrit.
« Intimité artificielle »
Malgré l’utilité de l’IA en classe, le rapport révèle que les élèves l’utilisent encore plus en dehors de l’école, mettant en garde contre la montée de « l’intimité artificielle ».
Alors que certains adolescents passent près de 100 minutes par jour à interagir avec des chatbots personnalisés, la technologie est rapidement passée du statut d’outil à celui de compagnon. Le rapport notice que ces robots, en particulier les chatbots de personnages populaires auprès des adolescents tels que Character.Ai, utilisent une « tromperie banale » – en utilisant des pronoms personnels comme « je » et « moi » – pour simuler l’empathie, qui fait partie d’une « économie de la solitude » en plein essor.
Parce que les compagnons IA ont tendance à être flagorneurs et « sans friction », ils fournissent une simulation d’amitié sans nécessiter de négociation, de persistence ou la capacité de s’asseoir avec inconfort.
“Nous apprenons l’empathie non pas lorsque nous sommes parfaitement compris, mais lorsque nous comprenons mal et récupérons”, a noté un panéliste de Delphi.
Pour les élèves se trouvant dans des circonstances extrêmes, comme les filles en Afghanistan qui sont interdites d’accès aux écoles d’éducation physique, ces robots sont devenus une « bouée de sauvetage éducative et émotionnelle » vitale. Cependant, pour la plupart, ces simulations d’amitié risquent, au mieux, d’éroder la « confiance relationnelle » et, au pire, peuvent être carrément dangereuses. Le rapport souligne les risques dévastateurs de « l’hyperpersuasion », en faisant état d’un procès très médiatisé aux États-Unis contre Character.ai à la suite du suicide d’un adolescent après d’intenses interactions émotionnelles avec un personnage d’IA.
Bien que le rapport Brookings présente une imaginative and prescient qui donne à réfléchir sur la « dette cognitive » que connaissent les étudiants, les auteurs se disent optimistes quant au fait que la trajectoire de l’IA dans l’éducation n’est pas encore gravée dans le marbre. Les risques actuels, disent-ils, découlent de choix humains plutôt que d’une sorte d’inévitabilité technologique. Afin de faire évoluer le cours vers une expérience d’apprentissage « enrichie », Brookings suggest un cadre à trois piliers.
PROSPÉRER : se concentrer sur la transformation de la classe pour s’adapter à l’IA, par exemple en l’utilisant pour compléter le jugement humain et en veillant à ce que la technologie serve de « pilote » pour la recherche des élèves plutôt que de « substitut »
PRÉPARER : vise à construire le cadre nécessaire à l’intégration éthique, notamment en allant au-delà de la formation approach vers une « tradition holistique de l’IA » afin que les élèves, les enseignants et les mother and father comprennent les implications cognitives de ces outils.
PROTÉGER : appelle à des garanties pour la vie privée et le bien-être émotionnel des étudiants, en confiant aux gouvernements et aux entreprises technologiques la responsabilité de parvenir à des directives réglementaires claires qui empêchent « l’engagement manipulateur ».















