El miedo a la IA en Salud: Reguladores vs. Realidad clínica
La regulación actual de la inteligencia artificial en medicina parte de una premisa errónea: la idea de que la medicina y por ende el médico humano es infalible o que sus errores pueden tolerarse con mayor flexibilidad que los de una IA. La realidad es que el error médico es una causa importante de daño a los pacientes y, a diferencia de la IA, los médicos no pueden ser auditados con la misma objetividad ni corregidos en tiempo real.
Regulación vs. Resultados Reales
Los reguladores han centrado sus esfuerzos en imponer normativas rígidas en lugar de enfocarse en mejorar los resultados clínicos con IA. Se preocupan más por validaciones burocráticas que por la efectividad real en la reducción de errores.
Pero la IA no “falla” en el sentido tradicional. Cuando se equivoca, suele ser porque carece de datos suficientes o porque ha sido entrenada con sesgos, no porque tome decisiones arbitrarias. Si el objetivo real fuera reducir errores médicos, los reguladores deberían comparar la IA con el desempeño médico promedio, no con un estándar teórico de perfección. Implementar IA con supervisión médica no es una amenaza, sino una forma de optimizar recursos y reducir la incertidumbre.
El Negocio de la Incertidumbre en Medicina
Uno de los mayores obstáculos para la adopción de la IA en salud no es técnico ni regulatorio, sino económico. El sistema de salud, tal como está estructurado hoy, obtiene ingresos de la incertidumbre diagnóstica y terapéutica. La IA tiene el potencial de reducir esa incertidumbre, lo que inevitablemente afecta ciertos modelos de negocio.
Algunos ejemplos claros incluyen:
Sobreutilización de exámenes diagnósticos y fármacos 🚑🔬
La IA puede reducir la necesidad de pruebas innecesarias al ofrecer diagnósticos más precisos y guiar mejor la toma de decisiones clínicas. Esto impacta los ingresos de laboratorios, clínicas de imágenes médicas y hospitales que dependen de un volumen alto de exámenes para sostener su rentabilidad, así como de la medicalización de la vida.Terapias preventivas y tratamientos “mágicos” 💊
Muchos tratamientos se administran de forma preventiva sin evidencia sólida de que sean necesarios. Una IA bien entrenada podría predecir con mayor precisión la evolución de una enfermedad, evitando terapias innecesarias y costos adicionales. Un ejemplo concreto es el uso de IA en la toma de decisiones sobre antibióticos, una estrategia que ya se está aplicando en Colombia para optimizar su uso y prevenir la resistencia bacteriana.Encarnizamiento terapéutico y toma de decisiones al final de la vida 🏥⚕️
La IA puede ayudar a definir mejor los límites del tratamiento paliativo y evitar intervenciones médicas agresivas cuando no aportan beneficio real. Esto evitaría hospitalizaciones prolongadas en unidades de cuidados intensivos (UCI) y procedimientos invasivos en pacientes cuyo pronóstico ya está determinado. En este sentido, la IA no solo contribuye a una mejor comprensión del caso clínico, sino que también puede aplicar escalas de mortalidad, diseñar estrategias de comunicación con la familia y facilitar la toma de decisiones éticas y médicas basadas en datos.
En otras palabras, la IA en medicina no solo mejora la precisión, sino que desafía un sistema donde la incertidumbre genera ingresos. Este es uno de los verdaderos motivos por los cuales su implementación enfrenta resistencia.
Factores culturales y estructurales en la Resistencia a la IA
Además de las barreras regulatorias y económicas, hay factores culturales y estructurales que influyen en la forma en que la IA es percibida y aceptada en la medicina.
1. Aversión al error algorítmico y cambio generacional
Existe un fenómeno conocido como "aversión al error algorítmico", donde las personas tienden a rechazar decisiones automatizadas si estas se equivocan, incluso si los humanos se equivocan más. Sin embargo, este sesgo es más fuerte en generaciones mayores y en quienes crecieron en un sistema basado en la autoridad del médico humano.
Las generaciones más jóvenes, en cambio, tienen una relación distinta con la tecnología. Los nativos digitales entienden mejor que la incertidumbre nunca desaparece por completo y que los algoritmos pueden ayudar a reducirla, pero no eliminarla. Esto hace que sean más receptivos al uso de IA en la toma de decisiones médicas.
Por otro lado, no importa cuán precisa sea una IA, la responsabilidad última seguirá recayendo en el médico y en la institución de salud. Nadie "culpará a la máquina", porque la máquina no tiene agencia ni responsabilidad legal. Si un hospital usa IA, sigue siendo la institución la responsable de:
- Mantener el software actualizado
- Asegurar que los médicos interpretan correctamente los resultados
- Analizar los errores para mejorar los procesos
Esto no es diferente a lo que ocurre hoy con errores de laboratorio: si un examen arroja un resultado erróneo, la responsabilidad recae en el laboratorio o en la institución que lo validó, no en el dispositivo que realizó la medición. Mientras la IA supere el rendimiento humano en promedio, no hay justificación legal para restringir su uso basándose en el miedo a la equivocación.
2. Resistencia de algunos médicos: inseguridad y falta de precisión
Otro obstáculo importante para la adopción de la IA en salud es la resistencia de algunos médicos, particularmente aquellos que:
- Son inseguros respecto a su formación y temen que la IA exponga sus deficiencias.
- No están interesados en la precisión diagnóstica y prefieren mantener cierto margen de ambigüedad.
- Ven la IA como una amenaza a su autoridad en la toma de decisiones.
Esto es especialmente problemático en un entorno donde el diagnóstico clínico no siempre se basa en datos objetivos, sino en "intuiciones" o aproximaciones vagas. La IA tiene el potencial de transformar esto, pero solo si los médicos están dispuestos a aceptar una medicina más precisa y basada en evidencia.
3. ¿La IA aumenta la brecha en salud? No, la brecha es humana
Existe la preocupación de que la IA en medicina amplíe la desigualdad entre sistemas de salud ricos y pobres. Sin embargo, la brecha en acceso a la salud es un problema previo y completamente humano, no tecnológico.
La IA, por sí sola, no puede resolver las desigualdades estructurales, pero tampoco es la causa de ellas. Además, no debemos olvidar que la salud es solo un aspecto del bienestar humano, y muchas enfermedades pueden prevenirse mejorando las condiciones de vida en general. La IA no puede ni debe ser vista como una solución aislada, sino como una herramienta más dentro de una estrategia de salud pública que ataque los problemas desde la raíz.
A la IA se le exige un estándar mucho más alto que a los médicos humanos. Mientras que un error médico se percibe como “parte de la práctica”, un fallo en la IA es visto como inaceptable. Esto no responde a una lógica de seguridad del paciente, sino a una mezcla de miedo cultural y defensa de intereses establecidos.
¿Cómo debería ser la regulación de la IA en Salud?
Para que la inteligencia artificial tenga un impacto positivo en la medicina, su regulación debe ser realista y funcional. Algunas claves para lograrlo son:
✅ Comparación justa: La IA debe ser evaluada en relación con el desempeño médico promedio, no con un estándar inalcanzable de perfección.
✅ Flexibilidad en la aprobación: No exigir que cada versión de un modelo de IA pase por procesos regulatorios extensos si su desempeño mejora de forma progresiva.
✅ Monitoreo continuo: En lugar de bloquear la IA, se debe permitir su implementación con validación y mejoras en tiempo real.
✅ Incentivos para su adopción: Si la IA puede reducir costos innecesarios y mejorar resultados, su uso debería ser promovido en lugar de obstaculizado.
Conclusión
Las barreras regulatorias contra la IA en medicina no buscan mejorar la seguridad del paciente, sino proteger un sistema que se beneficia de la incertidumbre diagnóstica. La verdadera pregunta no es si la IA reemplazará a los médicos, sino si el sistema de salud permitirá que la IA haga a los médicos más precisos y eficientes.
Si queremos una medicina más segura y basada en evidencia, la IA no debe ser vista como una amenaza, sino como una herramienta esencial para reducir errores y mejorar la calidad de la atención médica.
Comentarios
Publicar un comentario