El creciente uso de datos sintéticos en la inteligencia artificial (IA) sanitaria se presenta como una solución prometedora a la escasez de datos del mundo real. Sin embargo, su aplicación no regulada introduce riesgos significativos que pueden comprometer la validez clínica, la equidad y la seguridad del paciente.
Un concepto clave que emerge de esta problemática es la "confianza sintética": una confianza injustificada en modelos de IA entrenados con conjuntos de datos generados artificialmente que no logran preservar la validez clínica o las realidades demográficas. Esta confianza surge de la suposición errónea de que conjuntos de datos más grandes son inherentemente mejores. Este enfoque, centrado en el volumen, a menudo no soluciona los problemas de fondo, sino que amplifica las desigualdades y los errores ya presentes en los datos originales.
La fase de generación de datos es el punto más crítico para desmantelar la "confianza sintética". Los errores, sesgos o artefactos introducidos en esta etapa inicial se propagan y amplifican en las fases posteriores.
Los modelos generativos pueden exacerbar estos problemas, a través de mecanismos técnicos, como las distorsiones distributivas en los modelos de difusión y la amplificación de sesgos.
Para garantizar la transparencia y la reproducibilidad, es indispensable una documentación completa que detalle el origen y el proceso de creación de los datos sintéticos. Se debe declarar explícitamente el método utilizado para generar los datos, como redes generativas antagónicas (GAN), autoencoders variacionales o modelos de difusión. Es necesario definir y documentar los parámetros de ruido o variación introducidos artificialmente. Se deben identificar y reportar de manera transparente las poblaciones, condiciones o subgrupos ausentes en los datos sintéticos. Y es obligatorio informar sobre la proporción entre las muestras de datos reales y las sintéticas.
El proceso debe incluir el uso de métricas cuantitativas, como la divergencia de Kullback-Leibler. El objetivo es detectar sesgos introducidos, como el "sobresuavizado" de condiciones raras.
La validación de los datos sintéticos requiere una supervisión experta. Se debe implementar un proceso de red-teaming por parte de clínicos, un proceso estructurado en el que los expertos buscan deliberadamente identificar errores, patrones inverosímiles o riesgos para la seguridad en los datos generados. Este escrutinio humano debe complementarse con verificaciones de rango automatizadas para valores numéricos.
La creación de un conjunto de datos sintéticos de alta calidad es solo el primer paso. El siguiente desafío consiste en utilizar estos datos de manera segura durante el desarrollo del modelo de IA.
Durante la fase de desarrollo, las salvaguardias evitan que el modelo aprenda patrones artificiales de los datos sintéticos, una causa fundamental de la "confianza sintética".
El sobreajuste sintético ocurre cuando un modelo se desempeña excepcionalmente bien en los datos sintéticos, pero falla al generalizar a datos reales. Para mitigar este riesgo, es necesario implementar un Índice de Deterioro del Rendimiento. Esta métrica cuantifica cómo cambia el rendimiento del modelo cuando se prueba en un conjunto de datos del mundo real, en comparación con su rendimiento en los datos sintéticos.
Un modelo entrenado con datos sintéticos puede volverse frágil, perdiendo la diversidad de los datos originales y arriesgándose a un colapso. Para medir su robustez, se propone un Índice de Fragilidad Sintética, una medida estratégica para prevenir la pérdida de diversidad en los extremos de la distribución (por ejemplo, con enfermedades raras o subgrupos interseccionales).
El despliegue es la prueba definitiva contra los peligros de la "confianza sintética", donde un modelo interactúa con datos del mundo real. La vigilancia es indispensable para proteger la privacidad del paciente, detectar la degradación del rendimiento y evitar decisiones clínicas basadas en datos defectuosos.
Aunque los datos sintéticos están diseñados para proteger la privacidad, persiste un riesgo de reidentificación. Esto se debe a una tensión: a medida que los datos sintéticos se aproximan a los datos reales para mejorar la validez clínica, los riesgos de privacidad aumentan. Por lo tanto, es obligatorio reportar métricas de privacidad específicas sobre los conjuntos de datos fusionados.
La "deriva sintética" es el fenómeno por el cual la precisión de un modelo en datos del mundo real decae con el tiempo. Para contrarrestar esto, se debe implementar un sistema para rastrear las tasas de decaimiento sintético-real, que genere alertas automáticas cuando la precisión del modelo en datos reales caiga por debajo de las líneas de base establecidas durante la validación.
Para proteger a los pacientes de predicciones de alto riesgo, los sistemas de IA deben incorporar protocolos de rechazo basados en criterios predefinidos:
• Alta dependencia sintética: Marcar las predicciones que se basen en más de un 50 % en características derivadas de datos sintéticos.
• Baja representación real: Marcar las predicciones relacionadas con poblaciones que tienen una baja representación en los datos del mundo real utilizados para generar el modelo.
• Alto riesgo de alucinación: Rechazar automáticamente las predicciones que dependan de características sintéticas marcadas con un bajo puntaje de fidelidad. Este es un control crítico contra las "alucinaciones interseccionales", donde el modelo inventa relaciones entre variables que no son clínicamente sólidas.
El uso responsable de datos sintéticos en la IA sanitaria exige un cambio fundamental de un enfoque basado en la cantidad a uno centrado en la calidad verificable. Los datos generados artificialmente conllevan riesgos inherentes de distorsionar realidades clínicas, amplificar sesgos sistémicos y generar patrones estadísticamente plausibles pero médicamente incorrectos.
La validación continua contra los resultados clínicos reales debe seguir siendo el estándar de oro para anclar cualquier aplicación de IA en la realidad médica. El verdadero valor de los datos sintéticos no reside en su volumen, sino en su capacidad para preservar auténticamente la complejidad y diversidad de las poblaciones de pacientes.
Al adoptar estas salvaguardias, podemos aprovechar el potencial de los datos sintéticos para avanzar hacia una atención médica equitativa y basada en la evidencia, sin comprometer la seguridad o la confianza del paciente.