Tecnología

/ Publicado el 15 de diciembre de 2025

Nuevos escenarios

Responsabilidad médica (mala praxis) en la era de la inteligencia artificial

La integración de sistemas basados en IA en la práctica cotidiana plantea desafíos novedosos para la teoría y la aplicación de la responsabilidad profesional médica.

Indice
1. Contenido
2. Referencias bibliográficas

El concepto de mala praxis, utilizado corriente, pero erróneamente, ha de ser aclarado de antemano toda vez que el mismo implica, de suyo, una resolución judicial previa, una sentencia firme que ratifique tal hecho; los juicios donde se discute el accionar médico son para analizar la responsabilidad del profesional. Hablar de mala praxis es entonces, lisa y llanamente, un prejuicio, pero uno que viene a modificarse con el ingreso de nuevas herramientas como la inteligencia artificial (IA).

Por otro lado, es indiscutible que la IA llegó para quedarse y ampliar, cada vez más, sus dominios en el campo sanitario, modificando definitivamente el paradigma de ejercicio profesional imperante durante el siglo XX e inicios del XXI.

Mientras la medicina tradicional ya está estructurada en torno a un estándar de cuidado -y los profesionales responden cuando fallan en cumplirlo-, el uso de IA genera una superposición de actores (médicos, instituciones, desarrolladores de software) y condiciona cómo se atribuye responsabilidad ante daños.

Continuidad del deber profesional

El fundamento de la responsabilidad médica en sí mismo permanece inalterado: los médicos tienen un deber fiduciario y profesional hacia sus pacientes, y deben actuar conforme al standard of care correspondiente a su especialidad. Según Cohen et al. (citados en Gerke, Maliha & Cohen, 2021), un médico que se apoya en una recomendación de IA sigue siendo responsable si sus decisiones derivan en un resultado por debajo del estándar esperado (Maliha, Gerke, Cohen & Parikh, 2021).1 Por tanto, la adopción de IA no exime al profesional de su obligación de verificar, interpretar críticamente y validar las sugerencias algorítmicas.

Nuevas fuentes de riesgo y litigio

La IA introduce varias fuentes de riesgo que pueden favorecer reclamos de responsabilidad profesional. En particular, los errores pueden surgir por mal uso del sistema, interpretación incorrecta de los resultados, sesgos de datos o fallos técnicos. Tal como señalan estudios recientes, uno de los fenómenos más problemáticos es el automation bias, definido como la tendencia a aceptar pasivamente las salidas generadas por la IA, incluso cuando hay indicios clínicos que deberían motivar escepticismo.2

Además, el riesgo legal no solo recae sobre el médico: las instituciones pueden ser responsables bajo teoría de negligencia institucional (corporate negligence) si no implementan controles adecuados, no capacitan al personal o adoptan herramientas no validadas (Leveraging Law & Ethics, 2025).3 Al mismo tiempo, los desarrolladores de IA podrían asumir responsabilidad bajo teorías de responsabilidad por producto si su algoritmo causa daño.

Desafíos del estándar de cuidado en presencia de IA

La relación entre la IA y el estándar de cuidado evoluciona y aún está poco definida. Según el Research Handbook on Health, AI and the Law, en múltiples jurisdicciones no hay una jurisprudencia clara sobre cómo cambia el standard of care cuando se utiliza IA (NCBI, 2024).4 En escenarios hipotéticos, si el algoritmo recomienda un tratamiento no estándar y el médico lo sigue, podría aumentar su exposición a demandas si ese tratamiento resulta dañino, pues está adoptando una conducta divergente del consenso clínico.

Un estudio empírico interesante realizado con una muestra representativa de jurados reveló que cuando la IA recomienda el “cuidado estándar”, aceptar esa recomendación reduce la percepción de responsabilidad legal. Pero si la IA sugiere algo no estándar, rechazarla y volver al tratamiento tradicional no brinda necesariamente una protección legal equivalente.5

Propuestas para mitigar la responsabilidad

Para responder a estos retos, la literatura ha propuesto varias estrategias:

  • IA explicable: modelos con capacidad de explicar sus decisiones (explainability) pueden facilitar que el médico justifique su uso, y también que se atribuya responsabilidad de forma más transparente (Mello & Guha, 2024).6
  • Documentación y consentimiento informado: los médicos deben registrar cómo se utilizó la IA (qué datos ingresó, cómo interpretó la recomendación) y, cuando corresponda, informar al paciente sobre su uso, incluyendo riesgos y limitaciones. Aquí, como derivación, resurge la importancia capital de una adecuada historia clínica donde, como bien señalara Laín Entralgo, esta no ha de ser un mero y frío listado de datos, sino que ha de reflejar el decurso del pensamiento del profesional.7
  • Formación continua: tanto los profesionales como las instituciones deben recibir capacitación específica en el manejo crítico de sistemas de IA, para evitar errores de interpretación o exceso de confianza.8
  • Regulación y asignación de responsabilidades: es necesario un marco normativo que defina cómo se reparten los riesgos entre médicos, hospitales y desarrolladores. Propuestas recientes sugieren modelos mixtos donde la responsabilidad no sea exclusivamente del médico, sino compartida, especialmente en casos de falla sistémica (Mello & Guha, 2024).

Debate ético y perspectivas

Desde una perspectiva ética, algunos autores advierten sobre la externalización moral: al delegar decisiones en la IA, podría erosionarse el juicio clínico humano y descargarse la responsabilidad en la “caja negra” del algoritmo (Román, Brenner & Andrade, 2024).9 Este fenómeno exige mantener un papel central del médico como agente moral activo y no meramente usuario pasivo de la tecnología, lo que supondría, de suyo, la pérdida de la función médica degradándola a la de simple técnico.

Simultáneamente, existe tanto un imperativo social como científico para aprovechar los beneficios de la IA -mejora en diagnóstico, prevención de errores, medicina personalizada- sin desincentivar el humanismo. Por ello, varios académicos han abogado por nuevos marcos legales que equilibren la seguridad del paciente con la libertad de desarrollar tecnologías disruptivas (Maliha et al., 2021).

Conclusión

El uso de IA en medicina no transforma radicalmente el deber profesional del médico, pero sí complica la estructura tradicional de responsabilidad. Si bien el profesional retiene una obligación ineludible de juicio y verificación, los litigios por responsabilidad profesional deberán contemplar ya no solo la actuación médica, sino también la calidad y supervisión del sistema algorítmico. Para gestionar estos riesgos, resulta esencial adoptar modelos de control claros, promover IA explicable y reforzar la formación médica. De este modo, se puede integrar la IA como una aliada potente, sin diludiluir ni desvincular la responsabilidad profesional.