IA en la investigación médica: desafíos y oportunidades

Raúl Rubio
Socio de Propiedad Intelectual, Industrial y Tecnología de Pérez-Llorca
13 de febrero de 2025
La inteligencia artificial (IA) está revolucionando la investigación médica con aplicaciones que prometen avances sin precedentes en diagnóstico, tratamiento y prevención de enfermedades. Sin embargo, el reciente Reglamento de Inteligencia Artificial de la Unión Europea (AI Act) impone un marco normativo que, si bien busca garantizar la seguridad y la ética, plantea interrogantes sobre su posible efecto inhibidor en la innovación médica.
La AI Act clasifica los sistemas de IA en función del riesgo que representan distintos casos de uso: alto, moderado, bajo y mínimo; junto a otros usos prohibidos o IAs de propósito general que podrían usarse para todo lo anterior. En el caso de la investigación médica, muchos sistemas entrarán en la categoría de alto riesgo debido a su impacto en la salud y la seguridad de los pacientes. Esto implicará estrictos requisitos de transparencia, explicabilidad y robustez. Por ejemplo, los desarrolladores deberán documentar exhaustivamente cómo se entrenaron sus modelos y proporcionar pruebas de que estos son auditables y seguros.
Aunque estas medidas son necesarias para evitar fallos y sesgos, también representan barreras significativas. Cumplir con los estándares puede ser costoso, consumir tiempo y resultar complicado con tecnologías avanzadas como las redes neuronales profundas.
Otro punto crítico es la supervisión humana. El reglamento exige que los profesionales que interactúen con la IA tengan la capacidad de revisar y, si es necesario, modificar sus decisiones. Aunque esto suena razonable, no siempre el criterio humano generará resultados más fiables y podría reducir la eficacia de los sistemas automatizados en escenarios donde el tiempo es crucial, como emergencias médicas.
Sin embargo, no todo son obstáculos. El AI Act también puede abrir nuevas oportunidades si los reguladores promueven estándares claros. Esto puede fomentar un entorno más predecible y seguro, lo que a su vez facilitaría la obtención de financiación y la colaboración entre instituciones académicas e industriales. Además, al cumplir con la normativa, los desarrolladores pueden demostrar la fiabilidad de sus sistemas, lo que fortalecería la confianza del público y los reguladores.
Cabe destacar que el reglamento incluye exenciones para contextos críticos, como pandemias, lo que refleja un enfoque pragmático, pero, nuevamente los reguladores deberían clarificar cuando y como aplicar estas exenciones para garantizar que no se comprometan los derechos fundamentales de los pacientes.
En última instancia, el reglamento no debe ser visto como un obstáculo insuperable, sino como un punto de partida para desarrollar un ecosistema de IA seguro y ético. Esto requerirá colaboración interdisciplinar que incluya no solo a desarrolladores, profesionales médicos y equipos de gestión, sino también a expertos en regulación, derecho y ética.
La IA no es solo una herramienta; es una promesa. Tiene el poder de transformar la medicina, pero su éxito dependerá de nuestra capacidad colectiva para regularla y adoptarla de manera responsable, equilibrando riesgos y beneficios.