Por Alex Jesús Cabello Leiva / Investigador independiente / [email protected]
Para DOBLE LLAVE
______________________________________________________________________________________________
Nota del Autor: Este trabajo de investigación analiza la interacción entre la cognición humana y los sistemas automatizados.
Resumen: La integración de la Inteligencia Artificial Generativa (IAG) en la ciberseguridad ha creado una paradoja operativa: mientras la automatización promete gestionar la escala inabarcable de ciberamenazas, simultáneamente fomenta una dependencia cognitiva que erosiona la vigilancia crítica humana. Este ensayo examina la dialéctica entre la eficiencia algorítmica y la atrofia de habilidades en los Centros de Operaciones de Seguridad (SOC) y el hacking ético. A través de una revisión exhaustiva de la literatura técnica y psicológica reciente (2024-2026), se argumenta que la IAG sobresale en el reconocimiento de patrones sintácticos pero carece de la comprensión contextual necesaria para detectar vulnerabilidades de lógica de negocio y amenazas complejas. Los hallazgos sugieren que la «complacencia elegida» y el «sesgo de automatización» representan nuevos vectores de riesgo. Se concluye que la resiliencia organizacional futura depende de modelos de «Inteligencia Aumentada» que mantengan al humano en el bucle de decisión (HITL), priorizando el pensamiento sistémico sobre la mera operación de herramientas.
Palabras clave: Ciberseguridad, Inteligencia Artificial Generativa, Sesgo de Automatización, Carga Cognitiva, Hacking Ético, Lógica de Negocio.
Abstract: The integration of Generative Artificial Intelligence (GAI) into cybersecurity has created an operational paradox: while automation promises to manage the unmanageable scale of cyber threats, it simultaneously fosters a cognitive dependency that erodes critical human vigilance. This essay examines the dialectic between algorithmic efficiency and the atrophy of skills in Security Operations Centers (SOCs) and ethical hacking. Through a comprehensive review of recent technical and psychological literature (2024–2026), it is argued that GAI excels at recognizing syntactic patterns but lacks the contextual understanding necessary to detect business logic vulnerabilities and complex threats. The findings suggest that «chosen complacency» and «automation bias» represent new risk vectors. It is concluded that future organizational resilience depends on «Augmented Intelligence» models that keep humans in the decision loop (HITL), prioritizing systems thinking over the mere operation of tools.
Keywords: Cybersecurity, Generative Artificial Intelligence, Automation Bias, Cognitive Load, Ethical Hacking, Business Logic.
La Dialéctica de la Automatización y la Cognición
La ciberseguridad contemporánea ha transitado de ser una disciplina puramente técnica a convertirse en un ecosistema socio-técnico de alta complejidad (Universidad Nacional Autónoma de México, 2022). La acelerada adopción de la Inteligencia Artificial (IA) y los Grandes Modelos de Lenguaje (LLMs) hacia el horizonte de 2026 ha redefinido los límites operativos de la defensa y el ataque digital. Sin embargo, esta transformación conlleva una tensión dialéctica fundamental: delegar el análisis y la respuesta a sistemas automatizados para mitigar la fatiga de alertas puede inducir un desacoplamiento cognitivo, donde el operador humano pierde la conciencia situacional necesaria para intervenir cuando los algoritmos fallan. Este ensayo analiza los mecanismos psicológicos de esta dependencia y evalúa las limitaciones técnicas de la IA frente a la intuición humana.
El Contexto Sociotécnico: Fatiga y Dependencia
La necesidad de automatización surge de una realidad operativa insostenible. Los analistas de seguridad enfrentan volúmenes de datos que exceden los límites biológicos de la memoria de trabajo humana, derivando en el «síndrome de sobrecarga de información» y burnout. En este escenario, la IA se introduce como un mecanismo de triaje. No obstante, se estima que más del 85% de las brechas de seguridad siguen siendo atribuibles a errores humanos, exacerbados por sesgos cognitivos y comportamientos habituales que la tecnología no ha logrado erradicar (Fortinet, 2025).
El riesgo emergente es el «sesgo de automatización», definido como la propensión a favorecer las sugerencias generadas por sistemas automatizados, ignorando información contradictoria y asumiendo como correcta. Esto conduce a la «complacencia elegida», una estrategia adaptativa donde los analistas delegan la vigilancia activa a la máquina para conservar energía mental. La dependencia excesiva en la IA preocupa al 87% de los responsables de TI, quienes advierten sobre una falta de responsabilidad y una posible degradación de las habilidades fundamentales de ciberseguridad (Redacción Computing, 2025).
Límites de la IA en la Ciberseguridad Ofensiva
En el ámbito del Red Teaming y el hacking ético, la narrativa de la «automatización total» choca con barreras técnicas significativas. Si bien la IA generativa acelera el escaneo de vulnerabilidades sintácticas, carece de la agencia y la creatividad estratégica para comprender la «lógica de negocio» (Kulothungan, 2024).
Las vulnerabilidades de lógica de negocio no son errores de código, sino fallos en el diseño del flujo de trabajo que permiten un uso ilegítimo de funciones legítimas. La IA, entrenada en patrones estadísticos, a menudo valida estas transacciones como correctas porque cumplen con las reglas estructurales del protocolo, demostrando una ceguera contextual crítica. Además, el hacking de alto nivel depende del «encadenamiento de vulnerabilidades» (vulnerability chaining), una capacidad que requiere intuición humana para conectar puntos dispares que no tienen una relación técnica obvia pero sí contextual (Kulothungan, 2024).
La Defensa Cibernética y el Factor Humano
Desde la perspectiva defensiva (Blue Team), la IA ha demostrado ser eficaz en la reducción de tiempos de respuesta. Sin embargo, los ciberdelincuentes están adaptando sus tácticas, utilizando la misma tecnología para automatizar la creación de correos de phishing altamente personalizados y deepfakes que superan las barreras de la concienciación tradicional (Integrity360, 2024).
La implementación de IA en la defensa debe ser «centrada en el humano». Investigaciones empíricas demuestran que los sistemas que integran principios de ciberpsicología —como la detección de frustración del usuario o la interrupción cognitiva ante alertas— pueden reducir incidentes de phishing en un 48% (Troublefield, 2025). Sin embargo, existe una brecha de habilidades crítica: aunque el 98% de las organizaciones en América Latina planean usar seguridad basada en IA, el 54% de los líderes de TI señalan la falta de personal con experiencia en IA como el mayor desafío (Fortinet, 2025).
Implicaciones para la Formación y el Futuro Laboral
La industria enfrenta el peligro de una «juniorización automatizada», donde la eliminación de tareas de nivel de entrada suprime el entorno de aprendizaje necesario para que los analistas novatos desarrollen su intuición técnica. Esto sugiere que la brecha de talento se transformará en una crisis de competencias cognitivas de alto nivel, como el pensamiento sistémico y la ética aplicada (Redacción Computing, 2025).
Es imperativo adoptar un enfoque de «confía, pero verifica». La IA debe actuar como un telescopio que amplía la visión del analista, no como una venda que oculta la complejidad del entorno. La validación humana sigue siendo indispensable para interpretar el contexto que las máquinas, por diseño, ignoran (Kulothungan, 2024).
Conclusiones
La dialéctica entre automatización y cognición revela que la seguridad de la información sigue siendo una disciplina profundamente humana. La IA Generativa es una herramienta de aceleración, no de sustitución. Para garantizar la resiliencia en la era post-2025, las estrategias deben pivotar hacia la «Inteligencia Aumentada», donde la tecnología mantenga al humano en el bucle de decisión (Troublefield, 2025), fomentando una vigilancia cognitiva activa más allá de la mera respuesta algorítmica.
Referencias
Fortinet. (2025). Informe sobre la brecha de habilidades en ciberseguridad a nivel mundial 2025. FortiGuard Labs. https://www.fortinet.com/lat/corporate/about-us/newsroom/press-releases/2025/fortinet-2025-cybersecurity-skills-gap-report
Integrity360. (2024, 16 de octubre). ¿Cómo está cambiando la IA los ataques de ingeniería social? Integrity360 Insights. https://www.integrity360.com/blog/how-is-ai-changing-social-engineering-attacks
Kulothungan, V. (2024). Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity. Capitol Technology University. arXiv. https://arxiv.org/abs/2410.02700
Redacción Computing. (2025, 4 de febrero). ¿Reemplazará la IA a los expertos en ciberseguridad? Computing. https://www.computing.es/ciberseguridad/reemplazara-la-ia-a-los-expertos-en-ciberseguridad/
Troublefield, T. C. (2025). Human-Centric Artificial Intelligence In Cybersecurity: Integrating Cyberpsychology for The Next Generation Defense Mechanisms. International Journal of Security (IJS), 16(1), 1-25. https://www.csciorg.org/journals/ijs/v16/i1/p1_ijs_v16_n1.pdf
Universidad Nacional Autónoma de México. (2022). El ciberespacio como herramienta de análisis de la competencia político-tecnológica internacional. Dirección General de Bibliotecas UNAM. https://ru.atheneadigital.dgbiblio.unam.mx/handle/123456789/592
Fuente de imagen referencial: Suministrada por el autor del trabajo de investigación

Ver en PDF:
























Comments