Influência na tomada de decisões

Os humanos herdam preconceitos da inteligência artificial

Repetem os erros sistemáticos nos resultados da IA

Autor/a: Vicente, L., Matute, H.

Fuente: Humans inherit artificial intelligence biases

Uma nova investigação realizada pelas psicólogas Lucía Vicente e Helena Matute da Universidade de Deusto em Bilbao, na Espanha, proporcionou evidência de que as pessoas podem herdar preconceitos da inteligência artificial (erros sistemáticos nos resultados da IA) em suas decisões.


Comentários

São surpreendentes os resultados obtidos pelos sistemas de inteligência artificial, que podem, por exemplo, manter uma conversação como faz um humano, tem dado a esta tecnologia uma imagem de alta fiabilidade. Cada vez mais campos profissionais estão implementando ferramentas baseadas em IA para apoiar a tomada de decisões dos especialistas para minimizar os erros em suas decisões. No entanto, esta tecnologia não está extinta de riscos decido a preconceitos nos resultados da IA. Deve-se considerar que os dados utilizados para integrar estes modelos refletem decisões humanas passadas. Se estes dados ocultam padrões de erros sistemáticos, o algoritmo de IA aprenderá e reproduzirá estes erros. De fato, existe abundante evidência que indica que os sistemas de IA herdam e amplificam os prejuízos humanos.

O achado mais relevante da investigação de Vicente e Matute é que também pode ocorrer o efeito contrário: que os humano herdem preconceitos de IA. Ou seja, a IA não herdaria apenas o preconceito humano, sem que as pessoas também possam herdar estes preconceitos da IA.

Em uma série de três experimentos realizados pelas investigadoras, os voluntários realizaram uma tarefa de diagnóstico médico. Um grupo de participantes foi auxiliado por um sistema de IA tendencioso (apresentando um erro sistemático) durante esta tarefa, enquanto o grupo de controle não foi auxiliado. A IA, a tarefa de diagnóstico médico e a doença eram fictícias. Todo o cenário foi uma simulação para evitar interferência em situações reais.

Os participantes assistidos pelo sistema de IA cometeram o mesmo tipo de erro que a IA, enquanto o grupo de controle não cometeu estes erros. Portanto, as recomendações da inteligência artificial ​​influenciaram as decisões dos participantes. Porém, a descoberta mais significativa da pesquisa foi que, após a interação com o sistema de IA, esses voluntários continuaram a imitar seu erro sistemático quando passaram a realizar a tarefa de diagnóstico sem assistência. Por outras palavras, os participantes que foram inicialmente assistidos por IA tendenciosa replicaram o seu preconceito num contexto sem este apoio, exibindo assim um preconceito herdado. Esse efeito não foi observado nos participantes do grupo controle, que realizaram a tarefa sem auxílio desde o início.

Estes resultados mostraram que informações tendenciosas de um modelo de IA podem ter um impacto negativo duradouro nas decisões humanas. A descoberta de uma herdabilidade do efeito de viés da IA ​​aponta para a necessidade de mais pesquisas psicológicas e multidisciplinares sobre a interação entre a IA e os humanos. Além disso, a regulamentação baseada em evidências também é necessária para garantir uma IA justa e ética, considerando não apenas as características técnicas da IA, mas também os aspectos psicológicos da IA ​​e da colaboração humana.


Conclusão

Os resultados mostraram que recomendações tendenciosas feitas por sistemas de IA podem impactar negativamente as decisões humanas em áreas profissionais como a saúde. Além disso, mostram também que tais recomendações podem influenciar o comportamento humano a longo prazo. Os humanos reproduzem os mesmos preconceitos exibidos pela IA, mesmo muito depois do fim da sua colaboração com o sistema tendencioso, e em resposta a novos estímulos. Embora este efeito de viés de herdabilidade possa ter sérias implicações, até onde sabemos, ele ainda não foi explorado em nenhuma pesquisa empírica.