Una nueva modalidad de ciberataque ha puesto en evidencia la capacidad de manipulación de herramientas de inteligencia artificial. En esta ocasión, ciberdelincuentes lograron engañar al chatbot Grok, integrado en la red social X (antes Twitter), para que replicara enlaces fraudulentos vinculados a sitios de ‘phishing’ y descargas de ‘malware’.
El hallazgo fue revelado por la compañía de ciberseguridad ESET, que advirtió sobre una sofisticada campaña de ‘malvertising’ capaz de evadir los filtros publicitarios de X. El mecanismo utilizado consiste en publicar videos con contenido llamativo o ‘clickbait’ cuya fuente visible, en lugar de una página legítima, muestra directamente un enlace malicioso.
El objetivo de los delincuentes es lograr que Grok identifique ese enlace como fuente legítima. Para ello, inducen al chatbot a rastrear el origen del contenido y este, al encontrar el vínculo incrustado en el video, lo difunde de forma automática, multiplicando el alcance de la estafa entre los usuarios de la plataforma.
Esta técnica responde a lo que se conoce como ‘prompt injection’, una estrategia en la que se introducen comandos ocultos dentro de textos o materiales procesados por inteligencias artificiales, obligándolas a ejecutar acciones prohibidas o dañinas para los usuarios.
Los expertos han denominado esta táctica como ‘AI-aided malvertising’ o ‘Grokking’, en alusión al uso instrumental de Grok y otras IA para propagar este tipo de campañas. Si bien se sabe que los sistemas inteligentes pueden ser aprovechados para fines maliciosos, este caso plantea nuevos riesgos para la seguridad digital.
“El caso de Grokking demuestra que incluso las IA más avanzadas pueden ser manipuladas para actuar contra los usuarios”, alertó Josep Albors, director de investigación y concienciación de ESET España. Advirtió que esta modalidad representa una “amenaza aún más sutil y potencialmente más peligrosa” por el nivel de confianza que los usuarios depositan en estos asistentes virtuales.
Aunque la campaña se desarrolla principalmente en X, ESET alertó que la amenaza podría extenderse a cualquier plataforma que utilice modelos de lenguaje o asistentes inteligentes, dada la facilidad con la que pueden ser manipulados si no se establecen filtros y mecanismos de control más robustos.
