Tecnología

Una IA escribió un exploit de día cero y Google lo detectó a tiempo

Susan Hill

El exploit apuntó a la autenticación de dos pasos, la segunda capa que protege casi todas las cuentas que nos importan: correo, banca, almacenamiento en la nube, accesos del trabajo. La vulnerabilidad, una falla de lógica semántica en el código Python de la herramienta, permitió que un atacante con credenciales robadas saltara la verificación 2FA al activar una excepción codificada que los desarrolladores nunca pensaron exponer. Google detectó la falla, la reportó al fabricante para que publicara un parche y desactivó el ataque planeado antes de que arrancara. Lo inédito no es el bug en sí, sino la manera en que fue encontrado.

Los analistas de Google sostuvieron que el código del exploit llevaba huellas inconfundibles de un modelo de lenguaje grande: comentarios estilo tutorial, formato muy estructurado y un estilo de redacción que describieron como altamente característico de los datos con que se entrena un LLM. El equipo concluyó con alta confianza que fue una IA, y no una persona trabajando sola, la que cargó con la mayor parte del descubrimiento y la militarización del exploit. La empresa afectada, la banda criminal y el nombre de la herramienta siguen sin revelarse.

La distinción importa porque la falla encontrada es justamente la que se suponía que las máquinas no detectaban bien. Los escáneres clásicos buscan caídas y corrupciones de memoria. Esta era una contradicción entre la lógica que aplica el 2FA y una excepción codificada a mano — el tipo de bug que un auditor humano cuidadoso podría descubrir leyendo miles de líneas de código en busca de inconsistencias. Los modelos más capaces, advierte Google, son cada vez mejores en esa lectura contextual, a velocidades que ningún equipo de auditoría puede igualar.

El informe describe además un patrón más amplio que no tiene que ver con bandas criminales. Un grupo afín a China que Google rastrea como UNC2814 usó IA para acelerar la investigación de vulnerabilidades en dispositivos embebidos. APT45, un grupo norcoreano, alimentó a un modelo con miles de prompts repetitivos para analizar de forma recursiva las entradas del catálogo CVE y validar pruebas de concepto. Operadores distintos, misma técnica: convertir al modelo en un asistente de investigación incansable.

El relato de Google tiene límites que conviene nombrar. La compañía no reveló la herramienta afectada, el actor amenaza ni el calendario del parche, y pide creer la conclusión sobre las huellas de IA solo con base en su análisis interno. Ninguna de las confirmaciones de terceros publicadas esta semana suma un examen forense independiente del código del exploit. La conclusión de alta confianza es la palabra de GTIG contra el silencio de la banda criminal. También es verdad que la falla de fondo — una excepción codificada a mano — es justo el tipo de descuido que los desarrolladores humanos cometieron durante décadas sin ayuda de IA. El modelo pudo acelerar el hallazgo; el bug es más viejo que el sistema que lo encontró.

Para la mayoría de los usuarios no hay una acción inmediata: el bug está en software que manejan equipos de TI, no en computadoras o celulares personales. Pero la implicación de fondo es directa. El perímetro defensivo en el que confiamos, desde los gestores de contraseñas hasta los inicios de sesión únicos empresariales, se diseñó pensando en atacantes humanos trabajando a velocidad humana. Un atacante con asistencia de IA puede leer un código fuente como un ingeniero veterano lee un párrafo. Los defensores tendrán que aprender a hacer lo mismo.

Lo confirmado es que el proveedor afectado fue notificado y está parchando la falla. El análisis más amplio se publicó como parte de la serie de inteligencia de amenazas de Google Cloud que sigue el uso de IA en seguridad ofensiva el 11 de mayo de 2026. El analista jefe de amenazas de Google, John Hultquist, dijo a la prensa en los días siguientes que la carrera entre IA y defensores ya arrancó y no está por arrancar. Antes de que termine el segundo trimestre se espera un informe complementario sobre el uso de IA en herramientas ofensivas.

Debate

Hay 0 comentarios.