Inicio
IA
Innovación
Sociedad
Tecnología
Los humanos adoptan sesgos de la IA: peligroso bucle de retroalimentación
viernes, octubre 06, 2023

Los humanos adoptan sesgos de la IA: peligroso bucle de retroalimentación

Impacto de los sesgos de la IA en las decisiones humanas: un estudio revela cómo los humanos adoptan errores persistentes después de interactuar con algoritmos de IA sesgados.

ChatGPT fue la revelación del año pasado en el campo de la IA. Por primera vez, la gente corriente parecía capaz de hacer realmente algo con la inteligencia artificial. Pero también había una advertencia: el chatbot seguía queriendo inventarse algunas cosas. Ahora hay otro inconveniente. Se enseña a sí mismo prejuicios que luego la gente adopta.

Un estudio de la Universidad de Deusto, en Bilbao (España), muestra que se han introducido errores sistemáticos en el “pensamiento” de la IA en forma de prejuicios aprendidos. Estos pueden influir mucho en las decisiones humanas.

Una respuesta para casi todas las preguntas: Alucinaciones

La inteligencia artificial es ya muy impresionante en la actualidad. Por ejemplo, es posible mantener una conversación con un modelo de IA casi igual que con otro ser humano. La IA tiene una respuesta para casi todas las preguntas, y los textos que salen de ChatGPT (o de un motor de IA similar) están fuertemente construidos desde el punto de vista lingüístico. Como resultado, esta nueva tecnología se presenta como muy fiable y el usuario tiene una fuerte tendencia a tomar toda la información como verdadera.

Cada vez más campos profesionales están implementando herramientas basadas en IA para ayudar a los especialistas en la toma de decisiones. Por ejemplo, la IA es muy buena a la hora de proporcionar una estructura eficiente y cuidadosa. Además, durante un proyecto, con la ayuda de la IA, se puede comprobar mejor si todo va según lo previsto. Así, se cometen menos errores en la preparación y la ejecución.

Aun así, esta tecnología tiene muchas pegas. Utilizar IA no está exento de peligros, en parte porque los modelos de IA pueden empezar a “alucinar”. Un chatbot alucinado puede inventarse una historia maravillosa llena de falsedades aleatorias cuando no sabe la respuesta a una pregunta. Entonces no dice que no tiene ni idea, sino que se inventa una respuesta confiada, porque el algoritmo da a ciertas tonterías un alto rango. Los usuarios también se quejan de que los bots de IA suenan “sociópatas”, o de que se olvidan de que son artificiales y afirman ser humanos.

También hay errores más matizados en sus resultados, ya que los datos usados para entrenar los modelos de IA se basan en pensamientos y decisiones humanas anteriores. Si hay errores sistemáticos ocultos en estos datos, el algoritmo de IA aprende esta información errónea y luego la reproduce como si fuera la verdad. Así pues, hay muchas pruebas de que los sistemas de IA adoptan y refuerzan los sesgos humanos, y la cosa no acaba ahí.

Peligroso bucle de retroalimentación: errores persistentes

Dos psicólogos españoles descubrieron que el efecto contrario también está muy extendido: los humanos adoptan los prejuicios y las medias verdades de la IA con la que interactúan. Así que no solo la IA se contamina de los sesgos humanos, sino que también funciona a la inversa. El riesgo de caer en un peligroso bucle de retroalimentación con esto es alto.

Los investigadores llevaron a cabo una serie de tres experimentos en los que voluntarios realizaban una tarea de diagnóstico médico. A la mitad de los participantes se les asignó un modelo de IA, que mostró errores sistemáticos. El grupo de control no podía pedir ayuda a la inteligencia artificial, por lo que tuvo que realizar la tarea por su cuenta. No había pacientes reales; los diagnósticos médicos se hacían en una simulación.

Los participantes ayudados por el algoritmo de IA cometieron los mismos errores que la IA les indicó, mientras que el grupo de control no cometió estos errores. Está claro que las recomendaciones de la IA influyeron en las decisiones de los participantes.

Pero el descubrimiento más importante del estudio fue que, tras interactuar con el sistema de IA, los participantes seguían cometiendo el error sistemático, incluso cuando realizaban la tarea de diagnóstico sin ayuda en un experimento posterior. En otras palabras, los sujetos que primero recibieron ayuda de la IA sesgada repitieron el error en el mismo contexto sin el ayudante de la IA a su lado. Este efecto no se observó en los participantes del grupo de control, que realizaron la tarea sin ayuda desde el principio.

Más investigación y regulación

Los científicos concluyen que la información sesgada, proporcionada con profesionalidad y confianza por un algoritmo de IA, puede tener un impacto negativo duradero en la toma de decisiones humanas. El descubrimiento de que los humanos adoptan permanentemente los errores de la IA exige más investigación sobre cómo interactúan los humanos y la IA. Además, se necesitan nuevas normativas para garantizar una IA justa y ética. En este sentido, no solo debemos fijarnos en las características técnicas, sino también en los aspectos psicológicos de la cooperación entre una IA y los humanos.

Sin comentarios