Stuart Russell: Los CEOs de IA Están Jugando Ruleta Rusa Con la Humanidad
Por Qué la Advertencia de Stuart Russell Tiene Peso
Esta es una entrevista notable que va mucho más allá del discurso típico de catastrofistas de IA. Stuart Russell - quien literalmente escribió el libro de texto que entrenó a la mayoría de los CEOs de IA actuales - entrega el relato interno más condenatorio de la situación de seguridad de IA que he encontrado. Su credibilidad es singular: 40 años como profesor de Berkeley, OBE de la Reina Isabel, la voz más influyente en IA según Time magazine, y relaciones personales con los líderes que impulsan la carrera de IA.
La revelación más sorprendente es su conversación con un CEO líder de IA sin nombre que ve un “desastre a escala Chernobyl” como el mejor escenario - porque solo entonces los gobiernos regularían. ¿La alternativa? Pérdida total del control. Russell reporta que los CEOs son “conscientes de los riesgos” pero sienten que “no pueden escapar de esta carrera” - si se retiran, los inversores los reemplazarían instantáneamente. El imperativo comercial anula la convicción personal.
Russell enmarca la situación con brutal claridad a través de su “problema del gorila”: hace unos pocos millones de años, los humanos se ramificaron de los gorilas. Ahora los gorilas no tienen voz en su existencia continua porque somos más inteligentes. La inteligencia es “el factor más importante para controlar el planeta Tierra.” Estamos construyendo algo más inteligente que nosotros. La conclusión lógica se escribe sola.
Los números que Russell cita son asombrosos. Los presupuestos de AGI el próximo año alcanzarán $1 billón - 50 veces el Proyecto Manhattan. Dario Amodei estima un 25% de riesgo de extinción. Elon Musk dice 30%. Sam Altman ha dicho que AGI es “el mayor riesgo para la existencia humana.” Sin embargo, estas mismas personas continúan construyendo. La evaluación de Russell: “Están jugando ruleta rusa con cada ser humano en la Tierra, sin nuestro permiso.”
Su única esperanza: construir sistemas de IA cuyo único propósito sea avanzar los intereses humanos, con pruebas matemáticas de seguridad. Ha estado trabajando en esto desde una “epifanía” en París en 2013. Pero el paradigma actual - sistemas que no entendemos, entrenados ajustando un billón de parámetros a través de quintillones de ajustes aleatorios - no ofrece tales garantías.
4 Ideas de Russell sobre el Riesgo Existencial de IA
- Un CEO líder de IA le dijo a Russell que un desastre de IA a escala Chernobyl es el “mejor escenario” porque finalmente forzaría la regulación gubernamental - la alternativa es pérdida completa del control
- El “problema del gorila” de Russell: los gorilas se ramificaron de los humanos evolutivamente y ahora no tienen voz en su existencia; estamos creando algo que nos pone en la posición del gorila
- Los sistemas de IA actuales son fundamentalmente opacos - la metáfora de Russell: una cerca de cadenas cubriendo todo Londres con las luces apagadas, donde ajustamos un billón de conexiones a través de quintillones de ajustes aleatorios hasta que los outputs se ven bien
- Sam Altman dijo recientemente “puede que ya hayamos pasado el horizonte de eventos” para el despegue de IA - Russell interpreta esto como estar atrapado en la atracción gravitacional hacia AGI con la fuerza fortaleciéndose a medida que nos acercamos