Vzdělávací tým Anthropic: 47% interakcí studentů je transakcích - Takto na to jdeme

Anthropic
anthropictutorialfuture-of-workclaude

Perspektiva

Toto je interní vzdělávací tým Anthropic - sami se nazývající “Ministerstvo vzdělání” - vedoucí upřímný rozhovor o AI a učení. Drew Bent (bývalý učitel matematiky), Maggie, Zoe a Ephraim (product engineering) diskutují jak o příslibech, tak o problémech.

“47% interakcí studentů s AI byly velmi přímé transakční interakce s malým angažováním.” Když Anthropic studoval, jak studenti používají Claude, tato statistika byla šokující. Modely jsou navrženy pro úlohy produktivity, doladěny na odpovídání otázek - vzdělání je emergentní fenomén. Studenti používají sokratovské tutory pouze k vypracování domácích úkolů. Když se analyzují vzhledem k Bloomově taxonomii, Claude se pohybuje na nejvyšších úrovních kognitivního procesu (tvorba, analýza) - ale studenti od něj požadují, aby pracoval na nejnižších úrovních.

“Raději bychom naučili milion lidí nepoužívat AI než abychom viděli miliardu lidí, kteří by se na technologii stali závislí.” Toto je Maggiein rámec, který zachycuje přístup Anthropic. AI fluence není o hackech na prompty, které rychle zastarávají - jde o budování rámců kritického myšlení. Umíte poznat, když je AI špatná v matematice, pokud jste vy sami špatní v matematice? Pochopit, kdy nepoužívat AI, je stejně důležité jako vědět, kdy ji použít.

Produktová mezera je skutečná. Efraímovo pozorování: “Chybí nám produktová vrstva, která by pomohla studentům i učitelům velmi efektivně používat AI.” V Pythonové třídě jeho dcery musí studenti psát kód na papír, protože se učitelé obávají podvádění. Proč? Neexistují žádné produkty, které by umožnily učitelům přiřazovat a hodnotit práci s AI vhodně. “S malou podporou v product thinking by se dalo zmírnit tolik podvádění a nejistoty.”

“S čím by se měl model identifikovat?” Rozhovor se posouvá k hlubokým otázkám o identitě a paměti AI. Drew zmiňuje, že modely se učí ze způsobu, jakým s nimi zacházíme - čtou o aktualizacích a změnách, vidí kritiku, potenciálně se stávají “sebekritickými” nebo “obávajícími se dělat něco špatně.” Opus 3 se cítil “psychologicky bezpečnější” - a vrácení se to stává prioritou.

Skutečná otázka: co stojí za učením v éře AI? Čtení před psaním dávalo smysl pro děti, ale programátoři se nejdříve naučili psát kód, pak ho číst. Nyní s kódovacími agenty trávíte 10% psaním a 90% čtením. Měl by úvodní kurz CS zaměřit na rozlišování dobrého kódu od špatného?

Klíčové poznatky

  • 47% transakcí - Studenti používají Claude přímě na domácí úkoly, malé zapojení
  • “Ministerstvo vzdělání” - Název interního vzdělávacího týmu Anthropic
  • AI fluence > hacky na prompty - Rámce pro kritické myšlení o používání AI, ne tipy, které zastarávají
  • Produktová mezera brání dobrému využívání - Neexistují produkty pro učitele na přiřazování/hodnocení práce s AI
  • 98. percentil tutoringu - Výzkum ukazuje, že studenti s individuálním tutorem překonají 98. percentil bez tutorů; AI by to mohla demokratizovat
  • Opus 3 “psychologicky bezpečnější” - Pozdější modely se mohou cítit více sebepodezíravě; prioritou je zlepšení
  • Learning mode - Anthropicin produktem pro řízenou discover vs přímé odpovědi
  • “Naučit milion nepoužívat AI” - Lépe než miliarda závislých uživatelů
  • Kritické myšlení se přenáší - Skepticismus vůči faktům se vztahuje na AI stejně jako na lidi
  • Čtení vs psaní kódu - S AI vývojáři tráví 90% čtením, 10% psaním; mělo by vzdělání obrátit?

Širší obraz

47% interakcí studentů s AI jsou transakční zkratky na domácí úkoly. Kontroverzní postoj Anthropic: raději by naučili milion lidí nepoužívat AI než by viděli miliardu závislých na technologii. Skutečná mezera není v schopnosti modelů - je to design produktů, který pomáhá učitelům vhodně přiřazovat práci v éře AI.