Google Threat Intelligence Group alertó que actores criminales ya utilizan inteligencia artificial para desarrollar ataques capaces de evadir sistemas de autenticación de dos factores (2FA). Luego de detectar por primera vez un exploit (un código diseñado para aprovechar vulnerabilidades).

De acuerdo con el reporte, el exploit estaba diseñado para vulnerar una herramienta open source de administración de sistemas mediante un fallo de lógica semántica que herramientas tradicionales de análisis no lograban detectar. 

El exploit requería credenciales de usuario válidas como paso previo, pero una vez obtenidas, permitía evadir la verificación de dos factores. Google aseguró que logró identificar la amenaza antes de que fuera utilizada en una campaña de explotación masiva.

La compañía explicó que la vulnerabilidad estaba relacionada con una “confianza implícita” dentro del código del sistema, y detalló que los modelos de lenguaje (LLMs) tienen una creciente capacidad para “leer la intención del desarrollador” y detectar contradicciones lógicas que suelen pasar desapercibidas para tecnologías tradicionales.

Entre las señales que apuntan al uso de IA, Google identificó comentarios demasiado explicativos dentro del código, datos incorrectos generados por el modelo y una estructura muy similar a la que suelen producir herramientas como ChatGPT o Gemini.

Malware autónomo para Android impulsado con IA

El reporte también documenta una evolución en el uso operativo de la IA dentro del malware. Uno de los casos señalados es PROMPTSPY, un malware para Android que utiliza la API de Gemini para interactuar de forma autónoma con dispositivos comprometidos.

Según Google, PROMPTSPY puede interpretar el estado de la interfaz del usuario y generar acciones dinámicas —como clics y desplazamientos— sin supervisión humana. El malware analiza la pantalla mediante la Accessibility API y envía esa información al modelo “gemini-2.5-flash-lite”, que responde con instrucciones para ejecutar acciones específicas dentro del dispositivo.

Además, si el usuario intenta desinstalar la aplicación maliciosa, PROMPTSPY despliega una capa invisible sobre el botón de desinstalación para bloquear la interacción. También puede capturar patrones de desbloqueo, PINs y otros datos biométricos para recuperar acceso posteriormente.

Para Google, este caso refleja el paso de la IA como herramienta de apoyo hacia sistemas capaces de ejecutar acciones ofensivas de forma autónoma.

El reporte también advierte que atacantes están comprometiendo herramientas utilizadas para desarrollar sistemas de IA con el objetivo de robar claves de acceso y obtener entrada a redes corporativas. 

IA para ocultar malware y evadir detección

La división de inteligencia de amenazas y ciberseguridad de Google, también identificó familias de malware vinculadas con actores alineados con Rusia, como CANFAIL y LONGSTREAM, que utilizan código señuelo generado por IA para dificultar su detección.

De acuerdo con el informe, estos programas incluyen grandes volúmenes de funciones aparentemente legítimas, pero sin utilidad operativa real. En algunos casos, el malware repetía decenas de veces tareas irrelevantes —como consultas sobre horario de verano— únicamente para camuflar su comportamiento malicioso.

Google indicó que comentarios encontrados dentro del código muestran que los atacantes solicitaron explícitamente a los modelos generar fragmentos de código aparentemente legítimos, pero sin una función real, utilizados para dificultar la detección del malware.

Acceso industrializado a modelos de IA

Google observó además la aparición de un ecosistema de herramientas diseñadas para obtener acceso masivo y anónimo a servicios de IA generativa.

Entre las capacidades detectadas se encuentran sistemas automatizados para registrar cuentas, evadir CAPTCHA y verificaciones SMS, agrupar múltiples claves API y rotar cuentas de manera programática para evitar bloqueos.

Herramientas como Claude Relay Service, CLIProxyAPI y ChatGPT Account Auto-Registration Tool forman parte de este entorno utilizado para usar modelos de IA a gran escala por medio de créditos de prueba y cuentas desechables.

Ante todas estas amenazas, Google ya emplea agentes como Big Sleep para identificar vulnerabilidades antes de que sean explotadas, así como CodeMender, un sistema basado en Gemini diseñado para corregir automáticamente fallos críticos de código.

Aunque Google asegura haber bloqueado los activos asociados a PROMPTSPY y que ninguna app infectada llegó a Google Play, el informe advierte que ya se está usando la IA como una herramienta de ataque, desde la creación de exploits hasta la operación autónoma de malware.

 

***************************

¡Reciba gratuitamente el boletín de Mobile Time Latinoamérica y manténgase bien informado sobre tecnología móvil y negocios! Regístrese aquí.

Las ilustraciones de los artículos son producidas por Mobile Time con IA.