Durante años, la ciberseguridad fue una carrera armamentista entre atacantes y defensores. Pero con la irrupción de la inteligencia artificial —y especialmente de los agentes autónomos— estamos entrando en una nueva etapa: una donde la misma herramienta puede ser simultáneamente aliada y amenaza.

Un reciente informe de IDC, sponsoreado por Microsoft, introduce una idea potente: los sistemas de IA pueden convertirse en “dobles agentes”.

El dilema central: ¿protección o vulnerabilidad?

La pregunta ya no es si la IA mejora la seguridad. La respuesta es sí.
El problema es que también puede degradarla.

Los agentes de IA —capaces de tomar decisiones, ejecutar tareas y operar con cierto grado de autonomía— están siendo incorporados masivamente en las organizaciones. IDC proyecta que habrá más de 1.300 millones de estos agentes para 2028. ()

Esto cambia completamente el modelo de riesgo.

A diferencia del software tradicional, estos agentes:

  • Aprenden del contexto
  • Interactúan en lenguaje natural
  • Pueden ejecutar acciones sin intervención humana directa

Y ahí aparece el problema: si un agente tiene acceso, también puede ser manipulado.

El nuevo vector de ataque: manipular la inteligencia

Uno de los conceptos más interesantes del informe es el del “confused deputy problem”. Básicamente:

Un agente con permisos legítimos puede ser inducido a hacer algo malicioso.

Por ejemplo:

  • Filtrar datos sensibles sin intención
  • Ejecutar acciones indebidas por instrucciones manipuladas
  • Tomar decisiones basadas en información contaminada

Esto no es teoría. Ya se han identificado ataques como el memory poisoning, donde se altera la memoria del sistema para afectar decisiones futuras. ()

En otras palabras: el ataque ya no va al sistema, va a la lógica del sistema.

Shadow AI: el riesgo invisible dentro de las organizaciones

Otro punto crítico es la proliferación de agentes no controlados.

  • El 29% de los empleados ya utiliza agentes de IA no autorizados en su trabajo ()
  • Muchas organizaciones ni siquiera saben cuántos agentes están operando internamente

Esto recuerda a fenómenos anteriores como el BYOD, pero con una diferencia clave:
estos sistemas no solo acceden a datos… también actúan sobre ellos.

La consecuencia es clara: pérdida de visibilidad = aumento exponencial del riesgo.

El cambio de paradigma: tratar a la IA como identidad

Uno de los insights más relevantes del informe es este:

Los agentes de IA deben ser tratados como identidades digitales, al igual que los usuarios humanos.

Esto implica aplicar principios de seguridad ya conocidos, pero con una nueva profundidad:

  • Zero Trust aplicado a agentes
  • Principio de mínimo privilegio
  • Observabilidad total (saber qué hacen, cuándo y por qué)
  • Gobernanza centralizada

Porque hay una verdad incómoda en ciberseguridad que vuelve a aparecer:

No se puede proteger lo que no se puede ver. ()

IA ofensiva: cuando los atacantes también evolucionan

El problema no es solo interno.

Los atacantes también están usando IA para:

  • Automatizar ataques
  • Escalar ingeniería social
  • Detectar vulnerabilidades más rápido
  • Evadir sistemas tradicionales de defensa ()

Esto obliga a cambiar el enfoque: pasar de una seguridad reactiva a una seguridad anticipatoria y adaptativa.

Entonces, ¿qué hacemos?

El informe no propone frenar la adopción de IA. Todo lo contrario.

Las organizaciones que mejor están respondiendo no son las que evitan la IA, sino las que:

  • La gobiernan
  • La monitorean
  • La integran con seguridad desde el diseño

En este nuevo contexto, la ciberseguridad deja de ser un freno y pasa a ser un habilitador estratégico.

Reflexión final

La IA no es ni buena ni mala para la ciberseguridad.

Es ambas cosas al mismo tiempo.

El verdadero riesgo no está en la tecnología, sino en cómo se implementa.
Y el verdadero diferencial competitivo no será quién use más IA, sino quién la use con mayor control.

Porque en la era de los agentes autónomos, la pregunta ya no es:

“¿Estamos protegidos?”

Sino:

“¿Estamos seguros de que nuestros propios sistemas no están trabajando en nuestra contra?”

Deja un comentario