El Informe Gravitee sobre el Estado de la Seguridad de los Agentes de IA 2026, basado en una encuesta a 900 ejecutivos y profesionales técnicos de Estados Unidos y Reino Unido, documenta que el 88% de las organizaciones ha confirmado o sospecha incidentes de seguridad o privacidad de datos con agentes de IA en el último año. En el sector sanitario específicamente, donde los agentes de IA están integrados en flujos de trabajo clínicos, sistemas de historiales médicos electrónicos, plataformas de diagnóstico, infraestructuras de facturación y cadenas de suministro, esa cifra alcanza el 92,7%—la más alta de todos los sectores encuestados. El informe indica que las grandes empresas en estos países han desplegado 3 millones de agentes de IA en total, y casi la mitad—1,5 millones—funcionan sin ningún tipo de supervisión activa o controles de seguridad, lo que los deja vulnerables a acciones no autorizadas a velocidad de máquina.
Los hallazgos revelan una crisis de identidad fundamental subyacente a estos incidentes. Según el informe, el 45,6% de los equipos depende de claves API compartidas para la autenticación entre agentes—un fallo de seguridad de credenciales básico que MITRE ATT&CK clasifica bajo T1552 (Credenciales no Seguras). Solo el 21,9% de los equipos técnicos trata a los agentes de IA como entidades independientes con identidad propia, con su propio alcance de credenciales y línea base de comportamiento. Además, el 82% de los ejecutivos cree que las políticas existentes los protegen de acciones no autorizadas de los agentes, mientras que solo el 21% tiene visibilidad real sobre lo que sus agentes pueden acceder, qué herramientas llaman o qué datos tocan.
Las organizaciones sanitarias enfrentan consecuencias particularmente graves por estas brechas de seguridad. Los costos promedio de las violaciones en el sector sanitario son de 9,77 millones de dólares—los más altos de cualquier industria por decimotercer año consecutivo—con incidentes de IA oculta añadiendo un promedio de 670.000 dólares por incidente. El Índice de Inteligencia de Amenazas IBM X-Force 2026 documentó un aumento del 44% en ataques que comienzan con la explotación de aplicaciones públicas, impulsado en gran medida por la falta de controles de autenticación. En HIMSS 2026—la mayor conferencia tecnológica del sector sanitario—expertos expresaron preocupación de que los agentes de IA de Epic, Google, Microsoft y otros se están desplegando sin pruebas clínicas suficientes o validación de gobernanza, según reportó STAT News.
El informe Gravitee documenta que los marcos de seguridad actuales diseñados para software determinista son estructuralmente incapaces de gobernar sistemas autónomos que razonan, se adaptan y actúan dinámicamente. Marcos como NIST AI RMF e ISO 42001 proporcionan estructuras de gobernanza organizacional, pero no abordan los controles técnicos específicos requeridos para despliegues agentivos: validación de parámetros de llamadas a herramientas, aplicación de alcance en tiempo real, puntuación de confianza de identidad pre-ejecución, o fusión contextual de cadenas de ataque. El monitoreo en tiempo de ejecución puede observar a un agente haciendo algo que no debería, pero no puede impedir que un agente lo haga.
VectorCertain LLC afirma que su plataforma SecureAgent habría bloqueado cada clase de fallo documentado antes de que llegara a los historiales de pacientes, bases de datos o sistemas clínicos. La compañía declara que su canalización de gobernanza pre-ejecución de cuatro puertas ha sido validada en cuatro marcos: las 278 declaraciones de diagnóstico de ciberseguridad del Perfil CRI v2.1 (incluyendo controles PROTECT y DETECT mapeados a HIPAA), los 230 objetivos de control del FS AI RMF del Tesoro de EE.UU., los resultados del sprint MITRE ATT&CK ER7++ (11.268 pruebas, 0 fallos), y la autoevaluación MITRE ATT&CK ER8 (14.208 ensayos, TES 98,2%). Según VectorCertain, SecureAgent logra una tasa de falsos positivos de 1 en 160.000—53.333 veces menor que el promedio de la industria EDR.
Las implicaciones del informe van más allá de las preocupaciones inmediatas de seguridad hacia cuestiones fundamentales sobre la gobernanza de la IA en infraestructuras críticas. Con los agentes de IA ahora integrados en componentes centrales de sistemas distribuidos y comportándose como infraestructura autónoma que hereda las mismas expectativas de seguridad que cualquier servicio en producción, el riesgo principal ya no es que un agente pueda estar equivocado, sino que sea demasiado eficiente realizando acciones para las que nunca fue diseñado. El informe completo de Gravitee está disponible en https://www.gravitee.io/state-of-ai-agent-security.

