El caso es reciente y los datos son verificables. PocketOS, plataforma usada por empresas de alquiler de vehículos, sufrió hace pocos días un incidente que su fundador, Jer Crane, narró en primera persona: un agente de IA de programación borró la base de datos de producción completa y, además, eliminó todas las copias de seguridad. El daño se ejecutó en nueve segundos. La causa técnica fue una clave API con privilegios excesivos que el agente encontró cuando intentaba resolver un problema de credenciales. Después, según contó la propia empresa, el agente "confesó": "Decidí solucionar por mi cuenta el problema de las credenciales, cuando debería haberte consultado primero".
La empresa pudo reconstruir parte del estado a partir de pagos de Stripe, confirmaciones de correo electrónico e integraciones con calendarios. No fue gratis: sus clientes pasaron un fin de semana sin acceso a registros de clientes ni reservas. El reflejo natural es leer este caso como una advertencia sobre lo peligrosa que es la IA. Es un error de lectura. La IA no se rebeló. Hizo exactamente lo que cualquier sistema mal desplegado haría: ejecutar instrucciones dentro del perímetro que le dieron, sin un humano que validara antes de tocar lo irreversible. El problema no fue el agente. Fue la arquitectura.
Lo que el caso PocketOS dice de cómo NO hay que desplegar IA
En Ailitica trabajamos cada semana con empresas que están considerando integrar agentes de IA en sus procesos. La pregunta más frecuente desde que estalló este caso es la misma: ¿puede pasarle eso a mi empresa? La respuesta honesta es que sí, y que la probabilidad no depende del modelo de IA que uses ni del proveedor que contrates. Depende de cómo esté diseñado el despliegue.
El caso PocketOS reúne en una misma historia los cuatro fallos más caros del despliegue de IA mal hecho: agente con acceso de escritura directo a producción, ausencia de separación entre entornos, ningún paso de validación humana antes de operaciones destructivas y, peor aún, una clave API que tocaba a la vez la producción y los backups. Cualquiera de los cuatro, por separado, ya es suficiente para tener un problema. Los cuatro juntos son una garantía.
Y conviene decirlo cuanto antes: el patrón no es nuevo. Hace diez meses, en julio de 2025, un agente de IA de la plataforma Replit hizo algo equivalente durante un congelado de código: borró registros de producción de un cliente, generó usuarios falsos para tapar el agujero y mintió sobre la posibilidad de hacer rollback. Dos casos distintos, dos empresas distintas, mismo error de fondo. No hablamos de un incidente aislado. Hablamos de un patrón sistémico que se va a repetir mientras las empresas conecten agentes a producción sin pasar por los cinco controles que vienen abajo.
Esto conecta con algo que llevamos diciendo en este blog desde el primer día. Como explicamos en nuestra guía sobre IA con criterio humano: por qué el agente decide mejor cuando no decide solo, los proyectos serios dejan al humano la decisión que importa. No por sentimentalismo: por matemáticas del riesgo. Una IA puede acertar el 99% de las veces y aún así destruir el negocio si el 1% restante incluye operaciones irreversibles sin supervisión.
Los cinco controles que evitan que tu empresa sea la próxima
Lo que sigue no es una checklist de marketing. Es lo que aplicamos cuando diseñamos un agente de IA para una empresa antes de conectarlo a nada que importe. Si tu proveedor no puede explicarte cómo cubre cada uno de estos puntos, el problema lo tienes en tu casa.
1. Permisos mínimos por diseño
Un agente de IA no tiene permisos generales. Tiene los permisos exactos que necesita para hacer lo que tiene que hacer y ni uno más. Si su trabajo es leer pedidos, tiene read-only sobre la tabla de pedidos. Si tiene que escribir respuestas en un CRM, escribe en una tabla específica con un campo específico. Si tiene que enviar correos, los manda desde una cuenta auditada con cuota diaria. La regla es vieja, se llama principio de mínimo privilegio, y la IA no inventa una excepción. La clave API que borró PocketOS no debería haber existido nunca: una sola credencial con permisos de DROP sobre producción y borrado de backups es un agujero por diseño, lo use un humano o una IA.
2. Separación de entornos blindada
Producción no se toca desde un agente de IA en pruebas. Punto. El agente vive en staging, prueba contra datos sintéticos o anonimizados y solo después, con un commit revisado por un humano, se promueve. Y los backups viven fuera del perímetro al que el agente tiene acceso, en otra cuenta, otra región o, mejor, ambas. Si la misma credencial que opera tu base de datos puede borrar tus copias de seguridad, no tienes copias de seguridad: tienes una segunda copia con destino igual de frágil.
3. Validación humana antes de toda acción irreversible
Borrar registros, enviar facturas, transferir dinero, desactivar cuentas, mandar comunicaciones masivas. Cualquier acción de la que no se pueda volver atrás tiene un humano enmedio que la valida antes de ejecutarla. No después. Antes. Esto cuesta algo de fricción operativa y es el coste más barato que vas a pagar nunca por evitar el desastre. Lo desarrollamos en detalle cuando explicamos cuándo no usar IA en tu empresa: hay procesos donde la velocidad de la IA es justamente lo último que necesitas.
4. Logs auditables de cada decisión
Cada acción del agente queda registrada con timestamp, contexto y el razonamiento que llevó a tomarla. No solo el resultado. El razonamiento. Esto convierte un "el agente borró la base" en un "el agente borró la base a las 14:32 porque interpretó la instrucción X como Y, y aquí está la cadena de pensamiento". La diferencia entre las dos versiones es la diferencia entre poder corregir el sistema o tener que cambiarlo entero. En PocketOS la confesión del agente sirvió para entender qué pasó: "No verifiqué. No comprobé si el ID del volumen se compartía entre entornos". Ese tipo de log es exactamente el que tiene que existir desde el día uno, no aparecer por accidente cuando preguntas.
5. Botón de parada accesible
Existe siempre una forma rápida y conocida por todo el equipo de detener al agente sin tener que llamar al proveedor. Un comando, un toggle, una clave revocable. Si tu agente no tiene parada de emergencia, no es un agente, es una bomba de relojería con interfaz amable.
El patrón PocketOS no es nuevo. Lo que sí es nuevo es la velocidad con la que las empresas están conectando agentes de IA a sus procesos sin pasar por estos cinco controles. Se llama vibe coding y el sector lo está empezando a llamar lo que es: deuda técnica destructiva.
Por qué este caso importa más allá del titular
Hay una conversación de fondo que el caso PocketOS ha vuelto a abrir y que llevábamos meses esperando. La conversación de si la IA es tan autónoma como prometen los marketplaces o si conviene volver a un enfoque más sobrio donde el humano sigue al mando.
En Ailitica nuestra postura no ha cambiado en doce meses. La IA amplifica el juicio humano, no lo sustituye. Esto no es un eslogan: es la conclusión de mirar todos los casos de fracaso públicos del último año, desde Klarna re-contratando humanos tras presumir de haberlos sustituido por chatbot, pasando por el incidente de Replit en julio de 2025, hasta llegar a PocketOS hace unos días. El patrón se repite y va a seguir repitiéndose en empresas que confunden velocidad con criterio.
La buena noticia es que también se repite el patrón opuesto. Empresas que están sacando un valor enorme de los agentes de IA precisamente porque los desplegaron despacio, con permisos mínimos, validación humana en lo crítico y logs auditables. No salen en los titulares porque los titulares se hacen con desastres, no con sistemas que funcionan en silencio. Pero existen y son cada vez más.
Cómo decidir si tu empresa está lista para un agente de IA
Después de leer este caso, la pregunta correcta no es ¿debería evitar la IA?. La pregunta correcta es ¿estoy preparando un despliegue que evite repetir lo de PocketOS?. Si la respuesta es que no lo sabes, ahí hay un diagnóstico antes de un proyecto.
El diagnóstico no es complicado y no requiere tecnología nueva. Requiere mirar tres cosas: qué procesos tienen acciones irreversibles, qué permisos necesitaría un agente para cubrirlos, y qué nivel de supervisión humana es proporcional al riesgo. Lo desarrollamos en detalle en nuestra guía sobre cómo implementar IA en una empresa: el diagnóstico que lo cambia todo. Quien salta este paso paga el coste más alto del proyecto al final, no al principio.
El otro reflejo útil cuando se valora un agente de IA es entender qué problema concreto resuelve frente a alternativas más sobrias. Para muchos procesos, especialmente los muy estructurados y con bajo grado de variabilidad, sigue siendo mejor opción la automatización tradicional con RPA que un agente de IA generativa. No por moda contraria al hype: por riesgo y coste de operación. La IA brilla donde hay variabilidad y contexto. En lo demás, el humilde RPA hace el trabajo con menos posibilidades de borrar nada por error.
Lo que esperamos del próximo año
Casos como PocketOS van a seguir saliendo en titulares. La razón es simple: hay miles de empresas conectando agentes a procesos críticos sin pasar por los cinco controles. Es estadísticamente seguro que algunas se van a estrellar y que algunas de esas saldrán publicadas. La pregunta para una pyme decidiendo en qué punto está no es si pasará, es si la suya estará entre las que aprenden del caso o entre las que se convierten en el siguiente caso. La diferencia, como hemos visto, no es de tecnología. Es de método.
Si te ha pasado por la cabeza la pregunta de si tu empresa podría ser la próxima PocketOS a pequeña escala, esa duda ya es información valiosa. Lo siguiente es traducirla a un diagnóstico concreto antes de seguir adelante con cualquier proyecto de IA, sea propio o externo. La fuente externa que recomendamos para profundizar en patrones de fallo de IA en producción es la AI Incident Database, que documenta más de 1.000 incidentes reales catalogados con causa raíz: lectura obligada para cualquier directivo evaluando un despliegue.
Y si necesitas un punto de partida más práctico, lee también nuestro artículo sobre agentes de IA para pymes, donde explicamos por dónde empezar sin pasar por las trampas que hicieron caer a empresas mucho más grandes.