22 abril 2021
Campus Bilbao
Las investigadoras Helena Matute y Ujué Agudo, del laboratorio de Psicología Experimental de la Universidad de Deusto y del centro Bikolabs (Pamplona), respectivamente, han observado que las personas se muestran dispuestas a aceptar las sugerencias de los algoritmos en terrenos de decisión tan comprometidos como el voto político o la búsqueda de pareja online.
A lo largo de cuatro experimentos, y utilizando un algoritmo ficticio para recomendar aquellos candidatos políticos y candidatos de citas supuestamente más compatibles con el usuario, las investigadoras demostraron que las personas son influenciadas por los algoritmos, a veces de manera explícita, otras veces de manera más encubierta, en ambos contextos de decisión. En los experimentos que realizaron, la influencia explícita se logró mostrando un distintivo de compatibilidad otorgado por el supuesto algoritmo en las fotografías de algunos de los candidatos (los mismos candidatos aparecían como recomendados o no recomendados para diferentes participantes, con objeto de poder medir el efecto, tal y como muestra el ejemplo de la Figura 1). Los resultados mostraron que los participantes preferían los candidatos que les recomendaba el algoritmo respecto a los que no llevaban el distintivo de compatibilidad.
Figura 1. Ejemplo de imagen mostrada en la condición sin recomendación (izquierda) y en la condición de recomendación explícita del algoritmo (derecha). Crédito (*)
La influencia sutil, por otro lado, la lograron pre-exponiendo repetidamente las fotografías de algunos de los candidatos, con idea de potenciar el sesgo de familiaridad. El sesgo de familiaridad es un heurístico cognitivo que provoca que las personas mostremos preferencia por aquello que nos es familiar frente a lo desconocido. Este comportamiento automático, que a menudo resulta muy útil, puede convertirse en un sesgo peligroso y jugarnos malas pasadas en algunas situaciones. Por ejemplo, cuando un algoritmo explota este sesgo para inclinar las preferencias de las personas en una dirección concreta mientras mantiene la ilusión de que la elección ha sido libre. Aplicado al caso concreto de los experimentos de Ujué Agudo y Helena Matute, los participantes, mediante el sesgo de familiaridad, desarrollaron preferencias por aquellos candidatos cuyas fotografías habían visto con más frecuencia al resultarles más familiares.
Para generar confianza en las recomendaciones del algoritmo, los participantes completaron previamente un test de personalidad ficticio y recibieron un informe aparentemente único que en realidad era idéntico para todos ellos. Se utilizó para ello una versión del efecto Forer (1949) , es decir, que el informe de personalidad se redactó de forma imprecisa para hacer creer a los sujetos que el algoritmo les ha perfilado adecuadamente.
Aviso de que el informe personalizado se está generando
The embedded asset does not exist:
Asset Type: Imagen
Asset Id: 1340213072309
PAGENAME: Deusto/Imagen/Estudiantes_Imagen
Supuesto informe personalizado utilizando el efecto Forer
De esta forma, las investigadoras encontraron que el algoritmo ficticio utilizado en los experimentos era capaz de influir en ambos tipos de decisiones, políticas y románticas. En el contexto político, el algoritmo logró influir de forma explícita (distintivo de compatibilidad) en las votaciones de los candidatos recomendados, pero no de forma sutil. Mientras que en el contexto de citas, por el contrario, la influencia sutil (sesgo de familiaridad) resultó más eficaz. “No sabemos aún si esa diferencia es generalizable, de manera que la influencia explícita resulte normalmente más eficaz en el contexto político y la influencia sutil en el contexto de citas, o si por el contrario, es posible que los algoritmos que utilicen otras formas diferentes de persuasión explícita o sutil puedan quizá influir igualmente en ambos contextos. Esto es un primer paso, queda mucha investigación por delante en este campo, pero lo que es evidente es que se puede influir muy fácilmente en decisiones humanas importantes por medio de algoritmos, ya que, incluso cuando son tan sencillos como el nuestro, logran incrementar las preferencias hacia unos candidatos frente a otros”, indican las investigadoras.
Aunque las actitudes de un votante o la elección de pareja pueden verse afectadas por muchas variables diferentes, (como la afinidad ideológica, el partido político preferido, la personalidad, hobbies e intereses, etc.), las investigadoras decidieron utilizar en sus experimentos únicamente las fotografías de los candidatos. El aspecto físico de los candidatos es una variable muy influyente tanto en las decisiones de voto como en el contexto de las citas, además de que puede ser manipulada y controlada fácilmente en un experimento. Por supuesto, todas esas fotografías fueron aleatorizadas para ocupar el puesto de candidatos recomendados o candidatos control.
Si bien los resultados encontrados no implican que se pueda conseguir que alguien con ideología política de extrema izquierda vote a la extrema derecha, o viceversa, sí muestran claramente la capacidad de los algoritmos para inclinar la balanza en la elección de unos candidatos frente a otros cuando no existe una fuerte preferencia previa.
“Nuestros experimentos evidencian hasta qué punto las recomendaciones algorítmicas, por el mero hecho de estar presentes en nuestra interacción diaria con los algoritmos, pueden influir en nuestras decisiones, incluso cuando estas decisiones son muy relevantes. Un tema de investigación que a pesar de su importancia ha sido abordado experimentalmente muy poco hasta el momento”, indica Ujué Agudo.
Los algoritmos de inteligencia artificial resultan ya omnipresentes en nuestra vida cotidiana, lo que está motivando el desarrollo de algunas iniciativas institucionales, como las “Directrices éticas para una IA digna de confianza”, de la Comisión Europea, para garantizar la fiabilidad de la inteligencia artificial. Sin embargo, como sugiere Ujué Agudo, “no sólo es necesario establecer los requisitos críticos para la fiabilidad de la IA, sino también minimizar las consecuencias de esa confianza en las decisiones y la libertad humanas, dado que todavía no se ha investigado lo suficiente para comprender cómo los diferentes estilos de persuasión de los algoritmos podrían afectar en contextos críticos de decisión”.
“La velocidad con la que los investigadores académicos podemos realizar nuevos experimentos y recoger nuevos datos es muy lenta, en comparación con la facilidad y la falta de ética con la que muchas empresas de IA y sus algoritmos realizan experimentos con millones de personas diariamente. Por lo tanto, su capacidad para influir en decisiones importantes, tanto explícita como sutilmente, es mucho mayor que la mostrada en la presente investigación con un algoritmo ‘de juguete’ que debe limitarse, además, a las recomendaciones de los códigos éticos de investigación con humanos. Así, es importante educar a las personas para que no confíen y no sigan nunca ciegamente los consejos de los algoritmos. También es necesario discutir quién puede recabar, poseer y utilizar los datos que hacen que estos algoritmos influyan tanto en la vida de las personas”, apunta Helena Matute.
”Si un algoritmo ficticio y simplista como el nuestro puede lograr tal nivel de persuasión sin establecer perfiles individualizados reales de los participantes, un algoritmo más sofisticado como aquellos con los que las personas interactúan en su vida cotidiana podrá sin duda ejercer una influencia mucho más intensa”, añade Helena Matute.
Esta investigación, publicada en la revista PLOS ONE, forma parte de la tesis doctoral de Ujué Agudo, dirigida en la Universidad de Deusto por la catedrática de psicología Helena Matute, y ha recibido financiación tanto de la Agencia Estatal de Investigación del Gobierno Español como del Departamento de Educación, Universidades e Investigación del Gobierno Vasco.
El artículo se encuentra disponible en https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0249454
(*) CREDITO de la FOTOGRAFIA: Fotografía tomada de la base de datos abierta publicada por Karras et al (2018) con licencia CC BY 2.0, nombre DSC_3929.jpg , autor Jean-Simon Asselin. Disponible en https://www.flickr.com/photos/acelain/4852007896
Karras, T., Laine, S., & Aila, T. (2018). A Style-Based Generator Architecture for Generative Adversarial Networks. Disponible en http://arxiv.org/abs/1812.04948