Aspectos destacados
|
Resumen
El aprendizaje social humano ocurre cada vez más en las plataformas sociales en línea, como Twitter, Facebook y TikTok. En estas plataformas, los algoritmos explotan los sesgos de aprendizaje social existentes (es decir, hacia la información prestigiosa, moral y emocional del grupo interno, o información 'PRIME') para mantener la atención de los usuarios y maximizar el compromiso. Aquí, sintetizamos ideas emergentes sobre el "aprendizaje social mediado por algoritmos" y proponemos un marco que examina sus consecuencias en términos de desalineación funcional. Sugerimos que, cuando los algoritmos explotan los sesgos de aprendizaje social, la información PRIME se amplifica a través de las interacciones humano-algoritmo en el entorno social digital de manera que causan percepciones sociales erróneas y conflictos, y difunden información errónea. Discutimos soluciones para reducir la desalineación funcional, incluidos algoritmos que promueven la diversificación limitada y aumentan la transparencia de la amplificación algorítmica.
En resumen, cuando los algoritmos de contenido explotan los sesgos de aprendizaje social, se produce un ciclo de retroalimentación de interacción humano-algoritmo que sobrerrepresenta la información PRIME en el entorno y promueve percepciones sociales erróneas que pueden generar conflictos y desinformación en lugar de cooperación y resolución colectiva de problemas.
Resumen gráfico: Aprendizaje social mediado por algoritmos en redes sociales en línea. Durante el aprendizaje social mediado por algoritmos, los algoritmos de contenido en las plataformas de redes sociales explotan los sesgos humanos de aprendizaje social y amplifican la información prestigiosa, moral y emocional ("PRIME") como un efecto secundario de los objetivos para maximizar la participación en las plataformas. Los seres humanos prestan atención naturalmente al contenido PRIME (A) y aprenden a producir más cuando los algoritmos de contenido amplifican la información PRIME (p. ej., a través del aprendizaje por observación y refuerzo) (B, C), creando así un entorno digital que se infla (en relación con la falta de influencia del algoritmo) la cantidad de información PRIME en muchos contextos, como debates sobre moralidad y política. (D) Cuando la información PRIME sobresatura los entornos digitales, puede aumentar el conflicto y facilitar la difusión de información errónea.
Comentarios
En las sociedades prehistóricas, los humanos tendían a aprender de los miembros de su grupo interno o de individuos más prestigiosos, ya que era más probable que esta información fuera confiable y resultara en el éxito del grupo. Sin embargo, con el advenimiento de comunidades modernas diversas y complejas, y especialmente en las redes sociales, estos sesgos se vuelven menos efectivos. Por ejemplo, una persona con la que estamos conectados en línea puede no ser necesariamente confiable, y las personas pueden fingir prestigio fácilmente en las redes sociales. En una revisión publicada en la revista Trends in Cognitive Science, un grupo de científicos sociales describe cómo las funciones de los algoritmos de las redes sociales están desalineadas con los instintos sociales humanos destinados a fomentar la cooperación, lo que puede conducir a una polarización y desinformación a gran escala.
"Varias encuestas de usuarios ahora tanto en Twitter como en Facebook sugieren que la mayoría de los usuarios están agotados por el contenido político que ven. Muchos usuarios no están contentos y hay muchos componentes de reputación que Twitter y Facebook deben enfrentar cuando se trata de elecciones y la propagación de desinformación", dice el primer autor William Brady, psicólogo social de la Kellogg School of Management en Northwestern.
"Queríamos realizar una revisión sistemática que intenta ayudar a comprender cómo la psicología humana y los algoritmos interactúan de maneras que pueden tener estas consecuencias", dice Brady. "Una de las cosas que esta revisión trae a la mesa es una perspectiva de aprendizaje social. Como psicólogos sociales, estamos constantemente estudiando cómo podemos aprender de los demás. Este marco es fundamentalmente importante si queremos entender cómo los algoritmos influyen en nuestras interacciones sociales."
Los humanos están predispuestos a aprender de los demás de una manera que generalmente promueve la cooperación y la resolución colectiva de problemas, razón por la cual tienden a aprender más de las personas que perciben como parte de su endogrupo y de aquellos que perciben como prestigiosos. Además, cuando los sesgos de aprendizaje estaban evolucionando por primera vez, era importante priorizar la información con carga moral y emocional, ya que era más probable que esta información fuera relevante para hacer cumplir las normas del grupo y garantizar la supervivencia colectiva.
Por el contrario, los algoritmos generalmente seleccionan información que aumenta la participación del usuario para aumentar los ingresos publicitarios. Esto significa que los algoritmos amplifican la misma información de la que los humanos están predispuestos a aprender, y pueden sobresaturar las fuentes de las redes sociales con lo que los investigadores llaman información Prestigious, Ingroup, Moral, and Emotional (PRIME), independientemente de la precisión del contenido o la representatividad de las opiniones de un grupo. Como resultado, es más probable que se amplifique el contenido político extremo o los temas controvertidos, y si los usuarios no están expuestos a opiniones externas, es posible que se encuentren con una comprensión falsa de la opinión mayoritaria de diferentes grupos.
"No es que el algoritmo esté diseñado para interrumpir la cooperación", dice Brady. "Es solo que sus objetivos son diferentes. Y en la práctica, cuando juntas esas funciones, terminas con algunos de estos efectos potencialmente negativos".
Para abordar este problema, el grupo de investigación primero propone que los usuarios de las redes sociales sean más conscientes de cómo funcionan los algoritmos y por qué cierto contenido aparece en su feed. Las empresas de redes sociales no suelen revelar los detalles completos de cómo sus algoritmos seleccionan el contenido, pero un comienzo podría ser ofrecer explicaciones de por qué a un usuario se le muestra una publicación en particular. Por ejemplo, ¿es porque los amigos del usuario interactúan con el contenido o porque el contenido es generalmente popular? Fuera de las empresas de redes sociales, el equipo de investigación está desarrollando sus propias intervenciones para enseñar a las personas a ser consumidores más conscientes de las redes sociales.
Además, los investigadores proponen que las empresas de redes sociales podrían tomar medidas para cambiar sus algoritmos, de modo que sean más efectivos para fomentar la comunidad. En lugar de favorecer únicamente la información PRIME, los algoritmos podrían establecer un límite en la cantidad de información PRIME que amplifican y priorizan al presentar a los usuarios un conjunto diverso de contenido. Estos cambios podrían continuar amplificando la información atractiva al tiempo que evitan que el contenido más polarizador o políticamente extremo esté sobrerrepresentado en los feeds.
"Como investigadores, entendemos la tensión que enfrentan las empresas cuando se trata de realizar estos cambios y sus resultados. Es por eso que en realidad creemos que estos cambios podrían teóricamente mantener el compromiso y al mismo tiempo rechazar esta sobrerrepresentación de la información PRIME", dice Brady. "La experiencia del usuario podría mejorar haciendo algo de esto".
Observaciones finales
En esta revisión, cubrimos la evidencia emergente que sugiere que los algoritmos de contenido explotan los sesgos humanos de aprendizaje social hacia la información PRIME para mantener la atención y el compromiso con las plataformas. Al promover la información PRIME, los algoritmos enseñan a los usuarios a expresar más de esta información por sí mismos a través del aprendizaje por observación y el aprendizaje por refuerzo. Argumentamos que estas interacciones humano-algorítmicas son un caso de desalineación funcional porque producen un entorno digital que sobrerrepresenta la información PRIME hasta el punto en que alimenta el conflicto y la desinformación en lugar de la cooperación y la resolución colectiva de problemas. Nuestro marco también sugiere que las interacciones humano-algoritmo pueden apoyar mejor el aprendizaje social funcional al aumentar la amplificación de información diversa limitada y aumentar la transparencia de la influencia del algoritmo.
Nuestra perspectiva de desalineación funcional genera varias direcciones de investigación futuras. En primer lugar, es importante comprender mejor exactamente cuánta variación explican los algoritmos de contenido frente al aprendizaje social humano en su influencia conjunta en el comportamiento de las personas en las redes sociales. Fomentamos los estudios interdisciplinarios para investigar esta interacción con mayor precisión a través de experimentos de campo, experimentos de laboratorio y modelos computacionales.
También alentamos la investigación que aprovecha la interacción de los sesgos humanos de aprendizaje social y los algoritmos de contenido para mejorar las interacciones en las redes sociales (por ejemplo, fomentando inferencias sociales precisas e interacciones diversas). En términos más generales, a medida que los algoritmos de contenido dominan cada vez más nuestro acceso a la información, la perspectiva de la desalineación funcional destaca cómo las pequeñas decisiones de diseño pueden tener grandes consecuencias emergentes debido a las complejas interacciones entre los algoritmos y los mecanismos humanos de aprendizaje social. Se requerirán grandes esfuerzos, incluidas colaboraciones académicas e industriales, para modelar mejor la dinámica de lo que aprendemos de los algoritmos y lo que los algoritmos aprenden de nosotros.