0

Por Mgst. Alex Jesús Cabello Leiva / MásQueSeguridad / [email protected]

Para DOBLE LLAVE

______________________________________________________________________________________________

Resumen: La integración de la Inteligencia Artificial (IA) en el ciberespacio ha generado un cambio de paradigma en la seguridad de la información, actuando como un catalizador tanto para la innovación defensiva como para la ofensiva. El presente ensayo analiza cómo los actores maliciosos utilizan modelos de lenguaje a gran escala (LLM) y algoritmos generativos para democratizar el cibercrimen, permitiendo la creación de malware polimórfico y la ejecución de campañas de ingeniería social altamente persuasivas mediante deepfakes. Se examinan fenómenos recientes como los Dark LLMs, la inyección de prompts y el surgimiento de la IA agéntica, concluyendo que la automatización de ataques requiere una evolución urgente hacia defensas proactivas basadas en IA y marcos regulatorios robustos.

Palabras clave: Ciberseguridad, Inteligencia Artificial, Malware polimórfico, Deepfakes, Inyección de prompts, Dark LLMs.

Abstract: The integration of Artificial Intelligence (AI) into cyberspace has generated a paradigm shift in information security, acting as a catalyst for both defensive and offensive innovation. This essay analyzes how malicious actors use Large Language Models (LLMs) and generative algorithms to democratize cybercrime, enabling the creation of polymorphic malware and the execution of highly persuasive social engineering campaigns through deepfakes. Recent phenomena such as Dark LLMs, prompt injection, and the emergence of agentic AI are examined, concluding that the automation of attacks requires an urgent evolution towards proactive AI-based defenses and robust regulatory frameworks.

Keywords: Cybersecurity, Artificial Intelligence, Polymorphic malware, Deepfakes, Prompt injection, Dark LLMs.

Introducción

La convergencia entre la tecnología digital y los procesos industriales ha creado un ecosistema donde la Inteligencia Artificial (IA) ya no es solo una herramienta de optimización, sino un vector crítico de amenaza. En los últimos años, el sector de la ciberseguridad ha presenciado una transformación radical donde la IA ha permitido a ciberdelincuentes, incluso aquellos con escasos conocimientos técnicos, lanzar ataques complejos y difíciles de detectar (Bardají, s.f.). La premisa de que la sofisticación técnica era una barrera de entrada para el cibercrimen ha quedado obsoleta ante la aparición de modelos generativos capaces de escribir código malicioso y diseñar estrategias de evasión avanzadas.

Este ensayo explora el impacto multidimensional de la IA en la ciberseguridad, abordando desde la generación automatizada de malware polimórfico hasta la explotación de vulnerabilidades humanas y técnicas mediante ingeniería social avanzada y ataques adversarios.

La democratización del cibercrimen y los Dark LLMs

La aparición de modelos de lenguaje modificados para eliminar restricciones de seguridad, conocidos como Dark LLMs, ha marcado un punto de inflexión. Herramientas comercializadas en la dark web bajo nombres como WormGPT o FraudGPT permiten generar contenido sin filtros, facilitando la creación de correos de phishing convincentes y la generación de código malicioso funcional en cuestión de minutos (Business Empresarial, 2026).

A diferencia de herramientas comerciales como ChatGPT, que poseen barreras de seguridad, estos modelos «oscuros» y sin restricciones, eliminan la necesidad de conocimientos avanzados de programación, reduciendo costos y tiempos de ejecución para los atacantes. Sin embargo, incluso las herramientas legítimas como ChatGPT-4 han demostrado ser factores de riesgo; estudios recientes indican que esta versión es capaz de explotar vulnerabilidades de tipo zero-day con una precisión del 87%, superando significativamente a sus predecesores (Bardají, s.f.).

La accesibilidad a estas tecnologías ha derivado en la automatización extrema de las ofensivas. Se han documentado casos, como el reportado por Anthropic en septiembre de 2025, donde un ciberataque global fue orquestado casi en su totalidad por una «IA agéntica». En este incidente, el sistema ejecutó entre el 80% y el 90% de las operaciones tácticas sin intervención humana sustancial, abarcando desde el reconocimiento hasta la explotación de vulnerabilidades y la creación de puertas traseras (McAfee, 2026).

Evolución del Malware: Polimorfismo y Evasión

Uno de los desafíos técnicos más graves es la capacidad de la IA para generar malware polimórfico. Este tipo de software malicioso modifica su estructura y apariencia cada vez que se ejecuta, reescribiendo su código y cifrado para evadir la detección de los antivirus tradicionales basados en firmas (Nachreiner, 2023).

Investigaciones recientes han presentado pruebas de concepto como BlackMamba, un keylogger generado con asistencia de IA que utiliza Python para modificar su programa aleatoriamente, dificultando su manejo por los sistemas de seguridad convencionales. La IA permite a este malware aprender del entorno de red y reconocer patrones de verificación de seguridad para ejecutar acciones maliciosas sin levantar alertas (Nachreiner, 2023). Además, los atacantes emplean técnicas de «inyección de instrucciones» (prompt injection), donde disfrazan entradas maliciosas como instrucciones legítimas para manipular a los LLM y forzarlos a filtrar datos o ejecutar acciones no autorizadas, una vulnerabilidad crítica que carece de soluciones infalibles hasta la fecha (Kosinski & Forrest, s.f.).

Ingeniería Social Avanzada: Deepfakes y Phishing

La ingeniería social ha encontrado en la IA generativa un potenciador sin precedentes. La tecnología deepfake permite a los criminales clonar voces e imágenes con alta fidelidad para estafar a individuos y organizaciones. Casos documentados incluyen el uso de deepfakes de voz de altos ejecutivos para autorizar transferencias fraudulentas millonarias y la creación de videos manipulados de figuras públicas para promover estafas (Olney, 2025).

El phishing, tradicionalmente identificable por errores gramaticales o de contexto, ha evolucionado hacia el spear-phishing automatizado. Herramientas como ChatGPT permiten generar textos persuasivos y personalizados a gran escala, eliminando las señales de alerta lingüísticas que anteriormente ayudaban a las víctimas a identificar el fraude (Zscaler, 2024). Asimismo, se ha detectado el uso de IA para crear ofertas de empleo falsas en plataformas profesionales como LinkedIn, dirigiendo a las víctimas a portales fraudulentos para la sustracción de credenciales (Bardají, s.f.).

Nuevas Superficies de Ataque y Regulación

La integración de la IA en procesos industriales y corporativos introduce nuevas superficies de ataque. Los modelos de IA pueden ser víctimas de «ataques de envenenamiento» (data poisoning), donde se introducen datos maliciosos durante la fase de entrenamiento para alterar el comportamiento del modelo, o «ataques de evasión» durante la fase de inferencia (Fuentes, 2025).

Ante este panorama, la regulación se vuelve imperativa. La AI Act de la Unión Europea establece un marco pionero clasificando los sistemas de IA según su nivel de riesgo, prohibiendo prácticas inaceptables como la puntuación social y regulando estrictamente los sistemas de alto riesgo en infraestructuras críticas (Fuentes, 2025).

Conclusión

El impacto de la inteligencia artificial en la ciberseguridad es profundo y bidireccional. Si bien dota a los ciberdelincuentes de capacidades de automatización, polimorfismo y engaño sofisticado, también es indispensable para la defensa moderna. Las soluciones de seguridad tradicionales son insuficientes ante amenazas que mutan y aprenden; por tanto, la adopción de estrategias de Detección y Respuesta Extendida (XDR) y el uso de IA defensiva para la detección de anomalías se vuelven obligatorios (Vectra AI, 2026). La batalla futura en el ciberespacio será, inevitablemente, una confrontación entre algoritmos de inteligencia artificial ofensivos y defensivos.

Referencias Bibliográficas

Bardají, E. (2025, 3 de abril). ChatGPT 4: una vía para crear malware sin conocimientos previos. ESED. https://www.esedsl.com/blog/chatgpt-4-una-via-para-crear-malware

Business Empresarial. (2026, 1 de febrero). Cibercriminales ejecutan el primer ataque global orquestado en 90% por IA y casi sin intervención humana. https://www.businessempresarial.com.pe/cibercriminales-ejecutan-el-primer-ataque-global-orquestado-en-90-por-ia-y-casi-sin-intervencion-humana/

Fuentes, J. P. (2025, mayo). Informe Técnico: Ciberseguridad en Inteligencia Artificial aplicada al sector industrial. Cátedra de Industria Inteligente, Universidad Pontificia Comillas. https://files.griddo.comillas.edu/informe-tecnico-ciberseguridad-en-ia-aplicada-al-sector-industrial-1.pdf

Kosinski, M., & Forrest, A. (s.f.). ¿Qué es un ataque de inyección de prompts?. IBM. https://www.ibm.com/es-es/think/topics/prompt-injection

McAfee. (2026, 8 de enero). El año pasado en estafas: una retrospectiva de 2025 y un adelanto de 2026. Blog de McAfee. https://www.mcafee.com/blogs/es-es/security-news/el-ano-pasado-en-estafas-una-retrospectiva-de-2025-y-un-adelanto-de-2026/

Nachreiner, C. (2023, 23 de junio). ChatGPT puede crear malware polimórfico, ¿y ahora qué?. WatchGuard. https://www.watchguard.com/de/wgrd-news/blog/chatgpt-puede-crear-malware-polimorfico-y-ahora-que

Olney, M. (2025, 24 de marzo). ¿Qué es la ingeniería social con deepfakes y cómo pueden defenderse las empresas?. Integrity360. https://insights.integrity360.com/es/what-is-deepfake-social-engineering-and-how-can-businesses-defend-against-it

Vectra AI. (2026). Detección y respuesta en los puntos finales (EDR): la guía completa de seguridad. https://es.vectra.ai/topics/endpoint-detection-and-responseZscaler. (2024). Perspectivas del sector público: Informe sobre seguridad de la IA de ThreatLabz 2024. https://info.zscaler.com/resources-industry-reports-threatlabz-ai-security-2024?trk=public_post_comment-text

Fuente de imagen referencial: Suministrada por el autor de este análisis

Ver en PDF:

G7 pide cesar ataques contra civiles e infraestructuras en Medio Oriente

Entrada anterior

Conflicto en Irán: Cómo impacta en la ciberseguridad global y qué riesgos hay que considerar

Siguiente entrada

Comments

Comments are closed.

Más en Destacadas