Ilya Sutskever
Co-founder at Safe Superintelligence Inc.
Spoluzakladatel Safe Superintelligence Inc. Bývalý Chief Scientist OpenAI a spoluvynálezce AlexNet. Jedna ze zakladatelských postav deep learningu.
O Ilya Sutskever
Ilya Sutskever je spoluzakladatel Safe Superintelligence Inc. (SSI), zaměřený na budování bezpečné superinteligentní AI. Dříve byl spoluzakladatelem a Chief Scientist v OpenAI. Je jedním ze spoluvynálezců AlexNet, průlomu, který spustil revoluci deep learningu.
Kariérní milníky
- Safe Superintelligence Inc. (2024-současnost): Spoluzakladatel
- OpenAI (2015-2024): Spoluzakladatel a Chief Scientist
- Google Brain (2013-2015): Research Scientist
- AlexNet (2012): Spoluvynálezce s Geoffrey Hintonem a Alex Krizhevskyem
- PhD pod Geoffrey Hintonem: University of Toronto
Významné postoje
K konci éry škálování
Sutskever věří, že čisté škálování dosáhlo svého limitu:
“Is the belief really that if you just 100x the scale everything would be transformed? I don’t think that’s true.”
Překlad: “Je přesvědčení opravdu takové, že když jen 100x zvětšíte škálu, všechno by se transformovalo? Nemyslím, že je to pravda.”
K výkonu eval vs realitě
“Models are much more like the first student - technically brilliant but lacking the ‘it factor’ that makes for actual capability.”
Překlad: “Modely jsou mnohem víc jako první student - technicky brilantní, ale chybí jim to ‘něco’, co dělá skutečnou schopnost.”
Klíčové citáty
- “Skutečný reward hacking jsou lidští vědci příliš zaměření na evaly.”
- “Modely generalizují dramaticky hůř než lidé.”
Související články
- Generalization Gap - Fundamentální limita, kterou Sutskever identifikuje
- Scaling Laws - Paradigma, o kterém říká, že končí