El nuevo factor de riesgo para empresas con la sofisticación de ciberataques por la IA
ES 🇪🇸   EN 🇬🇧󠁥󠁮󠁧󠁿
ciberseguridad, Gentileza

El nuevo factor de riesgo para empresas con la sofisticación de ciberataques por la IA

Con modelos de IA cada vez más capaces y autónomos, las organizaciones enfrentan amenazas que los esquemas de ciberseguridad tradicionales no contemplan. La pregunta ya no es si habrá un incidente, sino si las defensas estarán construidas cuando llegue.

La inteligencia artificial pasó rápidamente de una tecnología de vanguardia a una infraestructura crucial para todas las empresas. Sin embargo, esa evolución trae consigo un riesgo que muchas organizaciones subestiman: a mayor sofisticación del modelo, mayor es la superficie de ataque que se abre.

Los números hablan por sí solos. Los ataques cibernéticos impulsados por IA crecieron un 72% a nivel global y se proyecta que superen los 28 millones de incidentes en 2025, según datos de IBM y múltiples firmas de inteligencia de seguridad. En cuanto a América Latina, se registró un 19% de aumento en malware bancario habilitado por IA en el último año. Y según el informe Cost of a Data Breach 2025, el costo promedio de una brecha en la región ya supera los 2,8 millones de dólares, un 12% más que el año anterior.

El problema, actualmente, no es solo la frecuencia, sino la velocidad y sofisticación en los ataques. "Estamos ante un cambio de paradigma en la forma en que se vulneran los sistemas", advierte Leonel Navarro, Information Security Global Practice Director, Softtek. "Hoy, la mayoría de las organizaciones no mejora sus barreras de ciberseguridad a la velocidad en que la capacidad de los ataques aumenta, potenciados por la inteligencia artificial. La ventana de reacción se está cerrando", afirma.

A diferencia de los ataques del pasado, los hackers de hoy utilizan lo modelos de lenguaje de gran escala (LLM) para la industrialización del fraude. Uno de los peligros actuales es el llamado "Spear Phishing hiper-personalizado". Mediante el análisis de datos públicos y redes sociales, la IA genera correos y mensajes de una naturalidad que hace prácticamente indistinguible su origen artificial, eliminando los errores gramaticales y de contexto que antes delataban a un atacante. Esta técnica, sumada al uso de Deepfakes de voz y video, permite suplantar identidades de directivos o ejecutivos en tiempo real durante videollamadas o mensajes de audio, logrando que empleados autoricen transferencias o entreguen credenciales bajo la presión social del mando.


Síguenos en: Google News


Foto embed
Leonel Navarro, Information Security Global Practice Director, Softtek - Gentileza

En el plano más técnico, los atacantes han comenzado a desplegar el descubrimiento automatizado de vulnerabilidades (AVR). Utilizando modelos entrenados específicamente para auditar código, los ciberdelincuentes pueden encontrar fallos "zero-day" (vulnerabilidades desconocidas por el desarrollador) a una velocidad que supera por mucho las auditorías de seguridad humanas. Esto permite que el tiempo entre el descubrimiento de un fallo y su explotación masiva se reduzca de días a apenas unos minutos, dejando a los equipos de IT sin margen de maniobra para aplicar parches de seguridad.

El fenómeno de las AVR se posicionó en el debate justamente al conocer las capacidades del nuevo modelo de Anthropic, llamado Mythos, el cual es capaz de identificar vulnerabilidades en softwares y sistemas operativos que los humanos no fueron capaces de descubrir en décadas. Esa capacidad incluso llevó a actores como la FED y la banca de Wall Street a tener reuniones de emergencia para protegerse de eventuales crisis a futuro.

Otro fenómeno crítico es la creación de malware polimórfico asistido por IA. Se trata de código malicioso capaz de mutar su propia estructura y firma digital cada vez que intenta infectar un sistema. Al cambiar constantemente, este malware se vuelve invisible para los antivirus tradicionales y sistemas de detección basados en firmas estáticas. El atacante ya no necesita escribir un virus perfecto; solo necesita una IA que genere miles de variantes hasta que una logre evadir los filtros de la red.

Para enfrentar este escenario, la respuesta no puede ser manual "La IA no solo cambió el ataque, cambió las reglas del juego. Las organizaciones que sigan protegiéndose con modelos estáticos están operando en desventaja. La nueva frontera de la ciberseguridad exige defensas autónomas, gobernanza de modelos y una arquitectura capaz de adaptarse en tiempo real. En la era de la inteligencia artificial, la seguridad ya no es preventiva: es dinámica, continua y orquestada por inteligencia", señala Navarro. Esto implica que la seguridad ya no se basa en el perímetro de la empresa, sino en un monitoreo continuo del comportamiento del usuario y de las aplicaciones mediante aprendizaje automático, detectando anomalías en milisegundos antes de que el ataque se propague.

Con el 63% de las organizaciones latinoamericanas sin una política de gobernanza de IA, según el informe Cost of a Data Breach 2025 Report, y solo el 35% de las que ya adoptaron estas tecnologías con protocolos específicos de ciberseguridad, citado por el Reporte de Riesgos Cibernéticos de Willis Towers Watson; la brecha entre velocidad de adopción y madurez de seguridad es evidente.  "El desafío ya no es fortalecer la ciberseguridad existente, sino replantearla desde la base. Las organizaciones que no revisen de forma inmediata su gobernanza y su arquitectura de seguridad quedarán operando con modelos obsoletos frente a amenazas impulsadas por inteligencia artificial. En este nuevo contexto, actualizar controles no es suficiente: es necesario construir mecanismos de defensa adaptativos, capaces de evolucionar al ritmo del riesgo", cierra Navarro.