Ciberseguridad: La evolución de los modelos de IA maliciosos tras la aparición de WormGPT

Los esfuerzos de los desarrolladores de inteligencia artificial (IA) convencionales, como OpenAI y Google, han resultado efectivos para prevenir el uso malicioso de sus tecnologías. Estas plataformas implementan filtros y sistemas de detección de peticiones sospechosas, dificultando el trabajo de ciberdelincuentes que intentan forzar sus mecanismos de seguridad mediante técnicas conocidas como jailbreaks. Sin embargo, esto ha llevado al surgimiento de modelos alternativos sin restricciones, siendo uno de los más notorios WormGPT.
Originalmente alertado en marzo de 2023 y lanzado oficialmente en junio de ese año por un creador que se hacía llamar Last, WormGPT se presentó como un modelo de lenguaje sin los filtros habituales, diseñado para facilitar actividades ilegales, como el envío de correos de phishing y la creación de malware. Con un costo de suscripción de entre 60 y 100 euros al mes o 550 al año, además de una instalación privada por 5.000 euros, se evidenció que no era un proyecto amateur, sino una herramienta orientada a lucro dentro del ámbito black hat.
La situación de WormGPT culminó el 8 de agosto de 2023, cuando un reportaje del periodista Brian Krebs identificó a su responsable, Rafael Morais, llevando a la desaparición de la herramienta. Los autores señalaron que la atención mediática había comprometido su anonimato y los riesgos legales asociados.
Pese a su breve existencia, WormGPT dejó un vacío que rápidamente fue ocupado por nuevas alternativas, como FraudGPT, DarkBERT, EvilGPT y PoisonGPT, las cuales promueven la creación de contenido malicioso sin restricciones de seguridad. Este desarrollo se corroboró con la reaparición del nombre WormGPT, que ahora se asocia con diversas variantes operadas por usuarios distintos.
Uno de los ejemplos más sofisticados es una iteración de WormGPT presentada por un usuario conocido como xzin0vich el 26 de octubre de 2024. Este modelo, que se accede a través de Telegram y requiere un pago, se especializa en la generación de correos fraudulentos y scripts maliciosos, operando sin restricciones. Durante pruebas, se confirmó que el modelo respondía sin filtros y se dieron a conocer detalles sobre su funcionamiento, indicando que estaba basado en Mixtral, un modelo de Mistral AI.
Por otro lado, el 25 de febrero de 2025, apareció otra variante de WormGPT bajo el usuario keanu, que también se accede mediante Telegram. Aparentemente similar, esta versión no fue creada desde cero, sino que utilizaba la arquitectura de Grok, un modelo desarrollado por xAI, la empresa de Elon Musk. A través de modificaciones en el prompt, keanu-WormGPT logra sortear las limitaciones de seguridad impuestas por Grok.
Investigaciones han revelado que esta herramienta no solo facilita la creación de contenido malicioso, sino que también permite a los delincuentes manipular los sistemas de IA legítimos para adaptar su comportamiento. Con la proliferación de estas herramientas, los ciberdelincuentes ahora pueden elegir entre versiones personalizadas basadas en arquitecturas conocidas como Grok o Mixtral, lo que complica la identificación de su origen.