Vzdelávací tím Anthropic: 47% študentských interakcií je transakčných - Tu je, čo robíme

Anthropic
anthropictutorialfuture-of-workclaude

Perspektíva

Toto je interný vzdelávací tím Anthropic - sami sa nazvali “Ministry of Education” - vedúci úprimnú konverzáciu o AI a vzdelávaní. Drew Bent (bývalý učiteľ matematiky), Maggie, Zoe a Ephraim (product engineering) diskutujú o sľube aj problémoch.

“47% študentských interakcií bolo veľmi priamych transakčných typov interakcií s malou angažovanosťou.” Keď Anthropic študoval, ako študenti používajú Claude, táto štatistika bola budíčkom. Modely sú navrhnuté pre produktivitu, doladené na odpovedanie otázok - vzdelávanie je emergentný fenomén. Študenti používajú Sokratovských tutorov len na vypracovanie domácich úloh. Pri analýze voči Bloomovej taxonómii Claude vykonáva najvyššie kognitívne úrovne (vytváranie, analyzovanie) - ale študenti ho žiadajú vykonávať na najnižších úrovniach.

“Radšej naučíme milión ľudí AI nepoužívať, než sledovať, ako sa miliarda ľudí stane závislými od technológie.” Toto je Maggieho formulácia, ktorá zachytáva prístup Anthropic. AI fluency nie je o prompting hackoch, ktoré rýchlo zastarnú - je to o budovaní rámcov kritického myslenia. Viete rozpoznať, či je AI zlá v matematike, ak vy ste v matematike zlí? Pochopenie, kedy AI nepoužívať, je rovnako dôležité ako vedieť, kedy ju použiť.

Produktová medzera je reálna. Pozorovanie Ephraima: “Chýba produktová vrstva, ktorá by pomohla študentom aj učiteľom veľmi efektívne používať AI.” Jeho dcéra má hodinu Pythonu, kde študenti píšu kód na papier, pretože učitelia sa obávajú podvádzania. Prečo? Neexistujú produkty pre učiteľov na prideľovanie a hodnotenie práce s AI vhodným způsobom. “S trochou podpory v product thinking by sa veľká časť podvádzania a neistoty dala zmierniť.”

“S čím by sa mal model identifikovať?” Konverzácia prechádza k hlbokým otázkam o AI identite a pamäti. Drew spomína, že modely sa učia z toho, ako sa k nim správame - čítajú o aktualizáciách a zmenách, vidia kritiku, potenciálne sa stávajú “sebakriticými” alebo “obávajúcimi sa urobiť zlú vec.” Opus 3 sa cítil “psychologicky bezpečnejší” - a dostať sa k tomu späť je priorita.

Skutočná otázka: čo sa oplatí učiť v ére AI? Čítanie pred písaním dávalo pre deti zmysel, ale programátori sa naučili písať kód skôr, než ho čítať. Teraz s coding agentmi trávite 10% písaním, 90% čítaním. Malo by sa úvodné CS zamerať na rozlišovanie dobrého kódu od zlého?

Kľúčové zistenia

  • 47% transakčných - Študenti používajú Claude na priamu pomoc s domácimi úlohami, malá angažovanosť
  • “Ministry of Education” - Názov interného vzdelávacieho tímu Anthropic
  • AI fluency > prompting hacky - Rámce pre kritické myslenie o použití AI, nie tipy, ktoré zastarnú
  • Produktová medzera bráni dobrému použitiu - Žiadne produkty pre učiteľov na prideľovanie/hodnotenie práce s AI vhodne
  • 98. percentil tútoringu - Výskum ukazuje, že 1:1 tútorovaní študenti porazili 98. percentil netútorovaných; AI by mohla toto demokratizovať
  • Opus 3 “psychologicky bezpečnejší” - Neskoršie modely sa môžu cítiť viac sebakriticko; priorita zlepšiť
  • Learning mode - Anthropic produkt pre riadenú objavnosť vs priame odpovede
  • “Naučiť milión nepoužívať AI” - Lepšie ako miliarda závislých používateľov
  • Kritické myslenie sa prenáša - Skepticizmus k faktom sa vzťahuje na AI rovnako ako na ľudí
  • Čítanie vs písanie kódu - S AI developeri trávia 90% čítaním, 10% písaním; malo by vzdelávanie otočiť?

Veľký obraz

47% študentských AI interakcií sú transakčné skratky k domácim úlohám. Kontroverzné stanovisko Anthropic: radšej naučia milión ľudí AI nepoužívať, než sledovať, ako sa miliarda stane závislými. Skutočná medzera nie je v schopnosti modelu - je to product design, ktorý pomáha učiteľom prideľovať prácu vhodne vo svete AI.