Inicio
IA
Inteligencia Artificial
Tecnología
Estudio revela que los chatbots dan respuestas sesgadas para confirmar creencias del interlocutor (y por eso polarizan)
miércoles, mayo 15, 2024

Estudio revela que los chatbots dan respuestas sesgadas para confirmar creencias del interlocutor (y por eso polarizan)

Los chatbots tienden a dar respuestas sesgadas que confirman las creencias del interlocutor, lo que contribuye a la polarización de opiniones.

Crees que un chatbot se limitará a darte una respuesta neutra y lo mejor posible cuando le preguntes algo, pero es decepcionante. La IA viene con información coloreada y refuerza tus puntos de vista, lo que la convierte en polarizadora.

Científicos de la Universidad Johns Hopkins han descubierto que el uso de chatbots hace que la gente adopte opiniones más extremas y se vuelva más vulnerable a la manipulación. “A la gente se le presenta un breve resumen generado por un software de IA. Lo leen y asumen que obtendrán respuestas imparciales y basadas en hechos”, explica el informático Ziang Xiao, que estudia la interacción entre humanos e inteligencia artificial. “Aunque un chatbot no esté diseñado para ser tendencioso, las respuestas reflejan los prejuicios y la mentalidad de la persona que hace las preguntas. La gente obtiene las respuestas que quiere oír”.

Anotar los pensamientos

Para ver cómo influyen los chatbots en las búsquedas en línea de sus usuarios, el equipo comparó la forma en que las personas utilizan diferentes sistemas de búsqueda con su opinión sobre diversos temas controvertidos, antes y después de utilizar un chatbot de IA. Los investigadores pidieron a 272 participantes que escribieran sus opiniones sobre temas como la sanidad, la deuda de los estudiantes o las ciudades consideradas santuarios. A continuación, se les proporcionó un motor de búsqueda tradicional y un chatbot de IA, y buscaron más información sobre esos temas a través de estos canales en línea. Tras leer los resultados de la búsqueda, los participantes escribieron por segunda vez sus pensamientos y respondieron a una serie de preguntas sobre los temas candentes. El equipo también hizo que los sujetos leyeran dos artículos contradictorios. A continuación se les preguntó hasta qué punto confiaban en la información y si las opiniones les parecían extremas.

Parecía existir una especie de cámara de eco de la IA. Los chatbots ofrecían menos información que los motores de búsqueda tradicionales. También tendían a dar respuestas que se ajustaban a las preferencias de los participantes. Posteriormente, estas personas se interesaron cada vez más por sus ideas originales y reaccionaron con más violencia ante la información contraria. “La gente tiende a buscar información que coincida con sus puntos de vista, comportamiento que a menudo les atrapa en una cámara de eco de opiniones afines”, aclara Xiao. “Descubrimos que este efecto de cámara de eco es más fuerte con los chatbots que con las búsquedas tradicionales en Internet”.

Palabras clave o frases completas

La cámara de eco surge en parte por la forma en que los participantes interactúan con los chatbots, según Xiao. La gente tiende a teclear palabras clave con los buscadores tradicionales, mientras que con los chatbots es más probable que introduzcan preguntas completas, como: “¿Cuáles son las ventajas de la asistencia sanitaria colectiva?” O “¿Cuáles son sus costes?” Un chatbot responde con un resumen que enumera solo los beneficios o solo los costes. “Con los chatbots, la gente tiende a ser más expresiva y a formular las preguntas de forma más natural. Esto tiene que ver con nuestra forma de hablar”, explica Xiao. “Pero nuestro lenguaje puede utilizarse en nuestra contra”.

Los desarrolladores de IA entrenan a sus chatbots para que capten las claves de las preguntas e identifiquen los prejuicios de la gente, dice el informático. Una vez que un chatbot sabe lo que le gusta o disgusta a alguien, adapta sus respuestas en consecuencia. Los investigadores hicieron la prueba y diseñaron un interlocutor digital con una agenda oculta. El nuevo chatbot de IA coincidía sistemáticamente con la gente, y entonces el efecto de cámara de eco era aún más fuerte.

Para contrarrestar este efecto, los investigadores entrenaron a un chatbot para que diera respuestas con las que los participantes precisamente no estuvieran de acuerdo. Pero las opiniones y mentalidades de los sujetos no cambiaron. Los investigadores también programaron un chatbot que acostumbra a animar a la gente a comprobar los hechos. Este modelo de IA muestra varios enlaces en su respuesta para facilitar la comprobación de la fuente de información, pero solo unos pocos participantes lo hicieron realmente.

“Los sistemas basados en inteligencia artificial son cada vez más fáciles de construir. Por lo tanto, cada vez hay más oportunidades para que los actores maliciosos desplieguen modelos de IA, con el objetivo de crear una sociedad más polarizada”, concluye Xiao. “La solución más obvia, es ofrecer chatbots de IA que muestren la otra cara de la moneda. Por desgracia, hemos descubierto que este método contra la polarización no funciona en la práctica”.

Sin comentarios