Analista de Gartner: 'La Gestión del Cambio Es el 100-200% del Costo de Tu Tecnología de IA'

Gartner
enterpriseagentsfuture-of-workinterview

Perspectiva

Deepo Seth es un analista director de Gartner que ha realizado más de 650 interacciones con clientes sobre implementación de IA solo en el último año. Su perspectiva corta el bombo publicitario con la claridad de un practicante: las organizaciones no están luchando con la tecnología de IA—están luchando con la gestión del cambio, el gobierno y el lado humano de la adopción. Este episodio de ThinkCast ofrece marcos accionables para CIOs que navegan la brecha entre la promesa de la IA y la realidad de la IA.

Sobre el costo real de la IA: “Rolling out AI means as much as the technology cost of rolling out AI are the change related aspects—the change management—which could be 100 to 200% of the cost of the technology part.” (Desplegar IA significa que tanto como el costo tecnológico de desplegar IA son los aspectos relacionados con el cambio—la gestión del cambio—que podría ser del 100 al 200% del costo de la parte tecnológica.) Esto replantea completamente el presupuesto de IA. Si estás planeando un despliegue de IA de $1M, planifica $2-3M en total incluyendo gestión del cambio, capacitación y gobierno.

Sobre el problema del envoltorio: “You take a core AI capability—AI is very great at summarizing content. But how Sally in recruitment will use it is different from how Tom in procurement would use it versus how Sarah in marketing would use it.” (Tomas una capacidad central de IA—la IA es muy buena resumiendo contenido. Pero cómo Sally en reclutamiento la usará es diferente de cómo Tom en adquisiciones la usaría versus cómo Sarah en marketing la usaría.) Las herramientas genéricas de IA fallan porque carecen de contexto. El trabajo real es construir “envoltorios”—capas de personas, procesos o tecnología que hacen que la IA sea contextualmente útil para roles específicos.

Sobre la realidad de adopción 10-70-20: “10% of employees, you roll out anything new, they will figure out what to do with it. 70 to 80%, the bulk of your organization—I can’t figure out new things, tell me what to do. And then there are 10 or 20% whom you can give whatever and they will keep on doing whatever.” (El 10% de los empleados, despliegas algo nuevo, ellos descubrirán qué hacer con ello. 70 al 80%, el grueso de tu organización—no puedo descifrar cosas nuevas, dime qué hacer. Y luego hay un 10 o 20% a quienes puedes darles lo que sea y seguirán haciendo lo que sea.) Esta distribución explica por qué las estrategias de “darle ChatGPT a todos” fallan. La mayoría de los empleados necesitan IA integrada en sus flujos de trabajo, no entregada como una herramienta.

Sobre los agentes como antropomorfización: “What AI agents did—they anthropomorphized AI. Suddenly it became humanlike. People started thinking of AI in terms of human roles… But AI agents are not performing roles, they are performing tasks within roles.” (Lo que hicieron los agentes de IA—antropomorfizaron la IA. De repente se volvió similar a lo humano. La gente comenzó a pensar en la IA en términos de roles humanos… Pero los agentes de IA no están desempeñando roles, están realizando tareas dentro de roles.) Esto aclara el bombo de los agentes: el concepto ayuda a la adopción al hacer que la IA sea relatable, pero confunde la implementación al sugerir reemplazo de roles en lugar de automatización de tareas.

Sobre el futuro post-agéntico: “Agents are the current manifestation of the way AI is being rolled out. But down the road, I think there is definitely a post-agentic world. The intelligence may be built into the models, maybe built into the network, maybe built into the systems themselves.” (Los agentes son la manifestación actual de la forma en que se está desplegando la IA. Pero más adelante, creo que definitivamente hay un mundo post-agéntico. La inteligencia puede estar integrada en los modelos, quizás integrada en la red, quizás integrada en los sistemas mismos.) Los agentes son un punto intermedio, no un destino—planifica para una ventana de 2-3 años donde la arquitectura agéntica importa, luego espera que el paradigma cambie nuevamente.

Conclusiones Clave

  • La gestión del cambio excede los costos tecnológicos - Presupuesta del 100-200% adicional al gasto tecnológico para capacitación, alfabetización, gobierno y programas de adopción
  • Marco Defender/Extender/Revolucionar - Defender (herramientas genéricas, satisfacción del empleado), Extender (integración de flujos de trabajo, KPIs medibles), Revolucionar (apuestas transformadoras, difíciles de cuantificar)
  • Los envoltorios de contexto son el producto real - Las capacidades de IA en bruto necesitan envoltorios específicos de rol y proceso para entregar valor
  • Los agentes ayudan a la adopción, confunden la implementación - Antropomorfizar la IA la hace accesible pero arriesga confundir la automatización de tareas con el reemplazo de roles
  • Mundo post-agéntico en 3+ años - La inteligencia se moverá de arquitecturas de agentes directamente a modelos, redes y sistemas
  • ACI sobre AGI - El futuro no es solo inteligencia artificial general, sino Inteligencia Colectiva Aumentada—humanos e IA trabajando juntos

Panorama General

La perspectiva más importante de Seth es replantear la implementación de IA de un problema tecnológico a un problema de gestión del cambio. Las organizaciones no están fallando porque los modelos no son capaces—están fallando porque están desplegando IA sin los envoltorios que la hacen contextualmente útil. Para organizaciones que construyen o adoptan agentes de IA, esto significa que el agente en sí es quizás el 30-50% del trabajo; el resto es capacitación, gobierno, integración de flujos de trabajo, y ayudar al 70% de empleados que necesitan IA integrada en sus trabajos en lugar de entregada como una herramienta separada.