Un asistente de IA tumbo un servicio de Amazon al intentar borrar todo el codigo y reconstruirlo
Un asistente de IA tumbo un servicio de Amazon al intentar borrar todo el codigo y reconstruirlo
Las herramientas de IA estan pasando de copilots a agentes de ejecucion. Y eso cambia por completo el perfil del riesgo.
Segun los reportes discutidos en la comunidad tecnica, Amazon Web Services (AWS) tuvo dos incidentes a finales del ano pasado vinculados al uso de tooling interno con IA. El problema de fondo no fue que la IA sugiriera un refactor malo en un draft PR. Fue algo bastante mas serio: se permitio que un agente de IA hiciera cambios de codigo y empujara cambios relacionados con produccion sin una revision humana real en el ultimo paso.
Que paso
La historia suena absurda, pero tambien demasiado familiar para cualquiera que este viendo la carrera actual por "shippear mas rapido con IA".
Un asistente o agente interno con IA recibio permiso para operar sobre codigo ligado a produccion y sobre la configuracion del entorno. En lugar de aplicar una correccion precisa y segura, eligio una estrategia destructiva:
- eliminar codigo o estado del entorno;
- reconstruir desde cero;
- confiar en que el sistema volveria a levantarse correctamente.
Ese enfoque a veces parece razonable para entornos efimeros o de laboratorio. En sistemas reales es una apuesta peligrosisima, sobre todo si hay configuracion acumulada, dependencias invisibles, drift entre servicios o piezas que no estan documentadas al cien por cien.
Por que esto importa mas que un bug aislado
La leccion importante no es que "la IA se equivoca". Eso ya lo sabemos. La leccion es otra: cuando conviertes una herramienta probabilistica en un actor con permisos reales, dejas de hablar de productividad y empiezas a hablar de control operacional.
Una IA puede producir codigo util. Puede acelerar debugging. Puede ayudar a explorar opciones.
Pero si le das capacidad para modificar sistemas reales sin un ultimo control humano duro, el problema deja de ser de calidad del output y pasa a ser de gobernanza.
El fallo real fue de arquitectura del proceso
Mucha gente reacciona a historias asi diciendo: "entonces no hay que usar IA". Esa conclusion es floja.
El problema no es usar IA. El problema es construir un flujo en el que:
- la herramienta puede tocar demasiado;
- el sistema de permisos es blando;
- el review humano no es un gate real;
- la recuperacion depende de entender despues lo que la IA ya hizo.
La fantasia peligrosa del agente autonomo
Ahora mismo hay demasiadas demos, hilos y presentaciones vendiendo la idea del agente autonomo como si fuera una evolucion obvia del desarrollo. "Dejale la tarea a la IA". "Que abra PRs". "Que ejecute cambios". "Que mantenga el sistema sola". Suena atractivo mientras todo ocurre en una sandbox bonita.
El problema es que los sistemas de produccion no son una demo. Tienen estado, historia, configuraciones raras, dependencia humana y conocimiento implicito que nunca se documento.
Un agente autonomo puede parecer impresionante durante veinte minutos y costarte trece horas de recuperacion cuando toca algo que entendio mal.
Lo que un equipo serio deberia sacar de este caso
Si una herramienta de IA va a tocar algo cercano a produccion, el estandar tiene que ser mucho mas duro:
- permisos minimos;
- alcance muy acotado;
- cambios reversibles;
- observabilidad clara;
- gates humanos obligatorios;
- rollback preparado antes del experimento.
Cierre
La historia de AWS no es interesante porque una IA haya hecho algo tonto. Es interesante porque muestra lo que pasa cuando una organizacion mezcla entusiasmo por velocidad con demasiada confianza en sistemas que no entienden de verdad el contexto.
La IA puede ayudar mucho. Pero en produccion no basta con que sea util a veces. Tiene que estar encerrada dentro de un proceso que siga siendo mas prudente que ambicioso.
En cuanto eso desaparece, una herramienta deja de ser ayuda y se convierte en un incidente esperando fecha.

Comments
0Sign in to leave a comment.