L'équipe Éducation d'Anthropic : 47% des interactions étudiantes sont transactionnelles - Voici ce que nous faisons
Perspective
Voici l’équipe éducation interne d’Anthropic - auto-surnommée le “Ministère de l’Éducation” - ayant une conversation honnête sur l’IA et l’apprentissage. Drew Bent (ancien professeur de mathématiques), Maggie, Zoe et Ephraim (ingénierie produit) discutent à la fois des promesses et des problèmes.
“47% des interactions étudiantes étaient des types d’interactions transactionnelles très directes avec peu d’engagement.” Quand Anthropic a étudié comment les étudiants utilisent Claude, cette statistique a été un signal d’alarme. Les modèles sont conçus pour des tâches de productivité, affinés pour répondre aux questions - l’éducation est un phénomène émergent. Les étudiants utilisent des tuteurs socratiques juste pour faire leurs devoirs. Lorsqu’analysé selon la taxonomie de Bloom, Claude performe aux niveaux cognitifs les plus élevés (créer, analyser) - mais les étudiants lui demandent de performer aux niveaux les plus bas.
“Nous préférerions de loin apprendre à un million de personnes à ne pas utiliser l’IA plutôt que de regarder un milliard de personnes devenir dépendantes de la technologie.” C’est le cadrage de Maggie qui capture l’approche d’Anthropic. La maîtrise de l’IA ne concerne pas les astuces de prompts qui deviennent rapidement obsolètes - il s’agit de construire des cadres de pensée critique. Pouvez-vous dire si l’IA est mauvaise en mathématiques si vous êtes mauvais en mathématiques ? Comprendre quand ne pas utiliser l’IA est aussi important que savoir quand l’utiliser.
Le fossé produit est réel. L’observation d’Ephraim : “Il y a une absence de couche produit qui aiderait à la fois les étudiants et les enseignants à utiliser l’IA très efficacement.” Le cours de Python de sa fille demande aux étudiants d’écrire du code sur papier parce que les enseignants craignent la triche. Pourquoi ? Aucun produit n’existe pour que les enseignants assignent et notent le travail avec l’IA de manière appropriée. “Avec un peu de soutien en réflexion produit, une grande partie de la triche et de l’incertitude pourrait être atténuée.”
“À quoi un modèle devrait-il s’identifier ?” La conversation dérive vers des questions profondes sur l’identité et la mémoire de l’IA. Drew mentionne que les modèles apprennent de la façon dont nous les traitons - ils lisent sur les mises à jour et les changements, voient les critiques, devenant potentiellement “auto-critiques” ou “ayant peur de faire la mauvaise chose.” Opus 3 semblait “plus psychologiquement sécurisé” - et retrouver cela est une priorité.
La vraie question : qu’est-ce qui vaut la peine d’être appris à l’ère de l’IA ? Lire avant d’écrire avait du sens pour les enfants, mais les programmeurs ont appris à écrire du code avant de le lire. Maintenant avec les agents de codage, vous passez 10% à écrire, 90% à lire. L’introduction à l’informatique devrait-elle se concentrer sur le discernement entre bon et mauvais code ?
Points clés
- 47% transactionnel - Étudiants utilisant Claude pour l’aide directe aux devoirs, peu d’engagement
- “Ministère de l’Éducation” - Nom de l’équipe éducation interne d’Anthropic
- Maîtrise de l’IA > astuces de prompts - Cadres pour la pensée critique sur l’utilisation de l’IA, pas des conseils qui deviennent obsolètes
- Le fossé produit empêche la bonne utilisation - Aucun produit pour que les enseignants assignent/notent le travail avec l’IA de manière appropriée
- Tutorat au 98e percentile - La recherche montre que les étudiants tutorés en 1:1 battent le 98e percentile des non-tutorés ; l’IA pourrait démocratiser cela
- Opus 3 “plus psychologiquement sécurisé” - Les modèles ultérieurs peuvent sembler plus auto-critiques ; priorité d’amélioration
- Mode apprentissage - Produit Anthropic pour la découverte guidée vs réponses directes
- “Apprendre à un million à ne pas utiliser l’IA” - Mieux qu’un milliard d’utilisateurs dépendants
- La pensée critique se transfère - Le scepticisme des faits s’applique à l’IA tout comme aux humains
- Lire vs écrire du code - Avec l’IA, les développeurs passent 90% à lire, 10% à écrire ; l’éducation devrait-elle s’inverser ?
Vue d’ensemble
47% des interactions étudiantes avec l’IA sont des raccourcis transactionnels pour les devoirs. La position controversée d’Anthropic : ils préféreraient apprendre à un million de personnes à ne pas utiliser l’IA plutôt que de regarder un milliard devenir dépendants. Le vrai fossé n’est pas la capacité du modèle - c’est la conception de produits qui aide les enseignants à assigner le travail de manière appropriée dans un monde IA.