Influencia en la toma de decisiones

Los humanos heredan los sesgos de la inteligencia artificial

Repiten los errores sistemáticos en los resultados de la IA

Autor/a: Vicente, L., Matute, H.

Fuente: Humans inherit artificial intelligence biases

Una nueva investigación realizada por las psicólogas Lucía Vicente y Helena Matute de la Universidad de Deusto en Bilbao, España, proporciona evidencia de que las personas pueden heredar sesgos de la inteligencia artificial (errores sistemáticos en los resultados de la IA) en sus decisiones.

Los humanos heredan sesgos de la inteligencia artificial

Resumen

Las recomendaciones de la inteligencia artificial a veces son erróneas y sesgadas. En nuestra investigación, planteamos la hipótesis de que las personas que realizan una tarea de diagnóstico médico (simulada) asistida por un sistema de IA sesgado reproducirán el sesgo del modelo en sus propias decisiones, incluso cuando pasen a un contexto sin soporte de IA. En tres experimentos, los participantes completaron una tarea de clasificación de temática médica con o sin la ayuda de un sistema de inteligencia artificial sesgado. Las recomendaciones sesgadas de la IA influyeron en las decisiones de los participantes. Además, cuando esos participantes, asistidos por la IA, pasaron a realizar la tarea sin ayuda, cometieron los mismos errores que había cometido la IA durante la fase anterior. Por lo tanto, las respuestas de los participantes imitaron el sesgo de la IA incluso cuando la IA ya no hacía sugerencias. Estos resultados proporcionan evidencia de la herencia humana del sesgo de IA.


Comentarios

Los sorprendentes resultados obtenidos por los sistemas de inteligencia artificial, que pueden, por ejemplo, mantener una conversación como lo hace un humano, han dado a esta tecnología una imagen de alta fiabilidad. Cada vez más campos profesionales están implementando herramientas basadas en IA para apoyar la toma de decisiones de los especialistas para minimizar los errores en sus decisiones. Sin embargo, esta tecnología no está exenta de riesgos debido a sesgos en los resultados de la IA. Debemos considerar que los datos utilizados para entrenar modelos de IA reflejan decisiones humanas pasadas. Si estos datos ocultan patrones de errores sistemáticos, el algoritmo de IA aprenderá y reproducirá estos errores. De hecho, existe abundante evidencia que indica que los sistemas de IA heredan y amplifican los prejuicios humanos.

El hallazgo más relevante de la investigación de Vicente y Matute es que también puede ocurrir el efecto contrario: que los humanos hereden sesgos de IA. Es decir, la IA no solo heredaría sus sesgos de los datos humanos, sino que las personas también podrían heredar esos sesgos de la IA, con el riesgo de quedar atrapadas en un bucle peligroso. Scientific Reports publica los resultados de las investigaciones de Vicente y Matute.

En la serie de tres experimentos realizados por estos investigadores, los voluntarios realizaron una tarea de diagnóstico médico. Un grupo de participantes fue asistido por un sistema de IA sesgado (mostraba un error sistemático) durante esta tarea, mientras que el grupo de control no recibió asistencia. La IA, la tarea de diagnóstico médico y la enfermedad eran ficticias. Todo el escenario fue una simulación para evitar interferencias con situaciones reales.

Los participantes asistidos por el sistema de IA sesgado cometieron el mismo tipo de errores que la IA, mientras que el grupo de control no cometió estos errores. Por tanto, las recomendaciones de la IA influyeron en las decisiones de los participantes. Sin embargo, el hallazgo más significativo de la investigación fue que, después de la interacción con el sistema de IA, esos voluntarios continuaron imitando su error sistemático cuando pasaron a realizar la tarea de diagnóstico sin ayuda. En otras palabras, los participantes que fueron asistidos por primera vez por la IA sesgada replicaron su sesgo en un contexto sin este apoyo, mostrando así un sesgo heredado. Este efecto no se observó en los participantes del grupo de control, que realizaron la tarea sin ayuda desde el principio.

Estos resultados muestran que la información sesgada procedente de un modelo de inteligencia artificial puede tener un impacto negativo duradero en las decisiones humanas. El hallazgo de una herencia del efecto de sesgo de la IA apunta a la necesidad de realizar más investigaciones psicológicas y multidisciplinarias sobre la interacción entre la IA y los humanos. Además, también se necesita una regulación basada en evidencia para garantizar una IA justa y ética, considerando no solo las características técnicas de la IA sino también los aspectos psicológicos de la IA y la colaboración humana.


Mensaje final

Nuestros resultados muestran que las recomendaciones sesgadas realizadas por los sistemas de IA pueden afectar negativamente a las decisiones humanas en campos profesionales como la atención sanitaria. Además, también muestran que recomendaciones tan sesgadas pueden influir en el comportamiento humano a largo plazo. Los humanos reproducen los mismos sesgos mostrados por la IA, incluso tiempo después del final de su colaboración con el sistema sesgado, y en respuesta a estímulos novedosos. Aunque este efecto de sesgo de herencia podría tener implicaciones graves, hasta donde sabemos, aún no se ha explorado en ninguna investigación empírica.