CNBC: Třetí inflexní bod AI — Agenti nyní pracují
Proč CNBC nazývá toto třetím inflexním bodem AI
CNBC moderátor Jar Dosa začíná živou demonstrací: dva příkazy se změní na leštěné 10-slide executive apresentaci — AI přebírá kontrolu počítače, provádí výzkum, píše, navrhuje rozvržení a doručuje výsledek. Bez zásahu člověka. Nejedná se o tech demo od startup pitche; je to mainstreamová obchodní média, která deklarují novou éru.
Tři inflexní body: “The first one was two years ago with ChatGPT, then about a year ago when the reasoning AI agents came out, and now with these agentic systems — agents able to reason, take task, and actually do work.” Posun od “AI, která odpovídá” k “AI, která provádí” je nyní dost patrný na to, aby CNBC postavila kolem toho 30minutový segment.
SaaS krvavá lázeň: IGV software ETF spadl o téměř 30 % v prvních dvou měsících roku 2026. “It hit gaming, legal, insurance, trucking, cyber security. The carnage was indiscriminate. The same technology that was supposed to save software companies is now what is threatening to kill them.” Když AI agenti mohou dělat práci, kterou software automatizuje, software sám se stává prostředníkem.
No-code tvůrci jsou teď skuteční: Lidé bez jakýchkoli programátorských dovedností budují software, weby a aplikace — dělají za odpoledne to, co normálně trvalo týmu inženýrů týdny. Jeden člověk popisuje stavbu 15 projektů za tři měsíce bez psaní jediného řádku kódu.
Paradox bezpečnosti: Anthropic zrušila svůj základní bezpečnostní závazek a nahradila tvrdé závazky “nezávazným veřejně deklarovanými cíly.” Pentagon hrozí zařazením na černou listinu za odmítnutí odstranění ochranných prvků pro autonomní zbraně. Vědci OpenAI rezignují. Společnosti, které slibovaly, že se budou spravovat samy, jsou svojí sliby vzdávají, protože jejich konkurenti udělali totéž dřív.
Zákonodárce, který používá Claude Code: Newyorský poslanec Alex Bores — autor zákona RAISE Act, prvního velkého zákona o bezpečnosti AI — je sám uživatelem Claude Code. Poslal pull request na zlepšení jejich iMessage konektoru. “I not only have used it, I’ve actually edited some of the code and submitted a potential change on GitHub.” Regulátor, který skutečně staví s technologií, kterou reguluje — vzácné a významné.
5 signálů z CNBC zprávy o narušení AI
- Agenti jsou třetí vlna — ChatGPT (2024) → modely s uvažováním (2025) → agentic systémy provádějící skutečnou práci (2026). Každá vlna se zrychlila rychleji než ta předchozí.
- SaaS je první oběť — Pokles software ETF o 30 % za dva měsíce. AI agenti provádějící práci, kterou SaaS automatizoval, znamená, že se software vrstva kompresuje.
- Bezpečnostní závazky se hroutí — Každá velká laboratoř poukázala na konkurenty jako důvod pro snížení standardů. Model dobrovolného závazku selhal.
- Regulace je boj za 125 milionů dolarů — Super PAC podporovaný Gregem Brockmánem a Andreessen Horowitz utrácí na porážku prvního velkého zákona o bezpečnosti AI. Sázkou je: zda vůbec budou existovat nějaké ochranné prvky.
- Propast schopností se rapidně uzavírá — Alex Bores varuje: “Cokoli, co teď říkáte, že je jen tak tak, za šest měsíců to bude úžasné.” Okno pro proaktivní správu se zužuje.
Co to znamená pro organizace poháněné AI
Zpráva CNBC zachycuje přesný okamžik, kdy AI agenti přešli z “impozantního demo” na “obchodní hrozbu.” Pro organizace nasazující AI týmy jsou důležité dvě věci: schopnost je skutečná a zrychluje se (agenti spolehlivě provádějí práci trvající hodiny), a regulační vakuum znamená, že jste na standardech bezpečnosti sami. Společnosti, které nyní budují důvěryhodné nasazení AI, budou mít výhodu, když regulace nevyhnutelně přijde — jak to vyjádřil Bores, “přivázání bezpečnostního pásu na Lamborghini to Lamborghini moc nezpomalí, ale zachrání spoustu životů.”