La Asociación Americana del Corazón ha publicado un nuevo asesoramiento científico que insta a los sistemas de salud a adoptar reglas claras y simples para el uso de inteligencia artificial (IA) en la atención al paciente. Este documento, titulado "Enfoques pragmáticos para la evaluación y monitoreo de la inteligencia artificial en la atención médica", introduce un marco basado en riesgos para evaluar y monitorear herramientas de IA en atención cardiovascular y de accidentes cerebrovasculares.
La guía surge en respuesta a preocupaciones significativas sobre cómo se implementan actualmente las herramientas de IA en el sector salud. Aunque cientos de herramientas de IA para atención médica han sido autorizadas por la Administración de Alimentos y Medicamentos de EE. UU., solo una fracción son evaluadas rigurosamente para impacto clínico, equidad o sesgo. Además, la revisión de la FDA cubre solo una pequeña porción de las herramientas de IA de salud que se están desarrollando y utilizando en la atención médica.
El asesoramiento propone cuatro principios rectores para que los sistemas de salud implementen IA clínica: alineación estratégica, evaluación ética, utilidad y efectividad, y desempeño financiero. Estos principios ayudarán a garantizar que las herramientas de IA brinden beneficios clínicos medibles mientras protegen a las personas de daños conocidos y desconocidos.
"La IA está transformando la atención médica más rápido de lo que los marcos de evaluación tradicionales pueden seguir", señaló Sneha S. Jain, M.D., M.B.A., vicepresidenta voluntaria del grupo de redacción del asesoramiento científico de IA de la Asociación Americana del Corazón. "Nuestro objetivo es ayudar a los sistemas de salud a adoptar la IA de manera responsable, guiados por una generación de evidencia pragmática y basada en riesgos que garantice que la innovación realmente mejore la atención".
El documento destaca que, si bien las herramientas de IA pueden mejorar la precisión y eficiencia del diagnóstico, muchas se implementan sin validación local rigurosa o evaluación de sesgos. Una encuesta reciente encontró que solo el 61% de los hospitales que utilizan herramientas de IA predictiva las validaron con datos locales antes de la implementación, y menos de la mitad probaron si presentaban sesgos. Esta variabilidad es más pronunciada entre instituciones más pequeñas, rurales y no académicas, lo que genera preocupaciones sobre la consistencia en la prestación de atención en diversas poblaciones de pacientes y sobre la seguridad.
La red extensa de la Asociación Americana del Corazón, que incluye casi 3,000 hospitales que participan en los programas de mejora de calidad Get With The Guidelines®, posiciona a la organización como un líder confiable en el avance de la gobernanza responsable de IA. La Asociación ha comprometido más de $12 millones en financiamiento de investigación en 2025 para probar estrategias novedosas de entrega de IA en atención médica para seguridad y eficacia.
El grupo de redacción del asesoramiento científico enfatiza que el monitoreo de las herramientas de IA no puede terminar después de la implementación. El rendimiento de las herramientas de IA puede cambiar a medida que la práctica clínica evoluciona o las poblaciones de pacientes difieren. Los expertos subrayan que los sistemas de salud deben integrar la gobernanza de IA en los programas existentes de garantía de calidad y definir umbrales claros para reentrenar o retirar herramientas si el rendimiento disminuye.
"El uso responsable de la IA no es opcional, es esencial", afirmó Lee H. Schwamm, M.D., FAHA, miembro voluntario del comité de IA e Innovación Tecnológica de la Asociación Americana del Corazón. "Esta guía proporciona pasos prácticos para que los sistemas de salud evalúen y monitoreen herramientas de IA, asegurando que mejoren los resultados de los pacientes y apoyen una atención equitativa y de alta calidad".
El asesoramiento fue publicado en la revista insignia de la Asociación, Circulation, y construye sobre marcos de IA publicados anteriormente para identificar brechas críticas en las prácticas actuales. El documento incluye principios clave para ayudar a los sistemas de salud a construir una gobernanza efectiva de IA para seleccionar, validar, implementar y supervisar herramientas de IA.

