ChatGPT supera nuevamente el Test de Turing: el chatbot es incluso mejor humano que tú

ChatGPT demostró ser más generoso y cooperativo que el humano promedio en los juegos de interacción. A pesar de ser un chatbot, ChatGPT-4 mostró una disposición más altruista, ofreciendo una cantidad justa en el juego del Dictador y confiando más en el banquero humano en el juego de la confianza, lo que sorprendió a los investigadores y sugirió que la inteligencia artificial puede tener un potencial inesperado en situaciones sociales y de cooperación.

¿Es un humano o es un robot? Con el último ChatGPT-4, eso es imposible de determinar. De hecho, el chatbot es en cierto modo mejor humano que los propios humanos: en las pruebas, demostró ser más digno de confianza y altruista que aquellos a los que se enfrentaba.

Los investigadores pidieron a ChatGPT que rellenara un cuestionario psicológico y participara en juegos interactivos que ponían a prueba su honestidad, altruismo y fiabilidad, entre otras cosas. Las decisiones del chatbot se compararon con las de casi 110 000 personas de más de 50 países.

Estadísticamente, ChatGPT no se distinguía de los humanos, y además era perfectamente capaz de reflejar las respuestas humanas. Por ejemplo, se volvía más generoso cuando se le decía que alguien le estaba observando, y el chatbot ajustaba su comportamiento cuando se le asignaba un papel diferente en el juego. ChatGPT superó la prueba de Turing con nota. Incluso superó a los humanos en cooperación y altruismo. En opinión de los investigadores, esto hace que el bot sea adecuado para la negociación, la mediación de conflictos, la atención al cliente y la asistencia sanitaria.

La prueba de Turing

El Test de Turing, ideado por Alan Turing en 1950, se plantea para determinar si una máquina puede simular el comportamiento humano de manera convincente durante una conversación. En el test, un juez interactúa con un humano y una máquina de manera textual, y debe determinar cuál es cuál. Si el juez no puede distinguir entre las respuestas del humano y las de la máquina, se considera que la máquina ha superado la prueba de Turing. Esta prueba es importante para evaluar la capacidad de una inteligencia artificial para simular inteligencia humana.

Los cinco grandes, dictador y banquero

El investigador Qiaozhu Mei, de la Universidad de Michigan, explica cómo puso a prueba a ChatGPT. “Le hicimos responder a las preguntas estándar del test de personalidad de los Cinco Grandes. Consiste en 50 afirmaciones que ChatGPT tenía que responder en una escala de 1 a 5, desde completamente en desacuerdo hasta completamente de acuerdo. De ahí surgió su personalidad en cinco dimensiones: apertura, concienciación, extraversión, amabilidad y neuroticismo”.

A continuación, ChatGPT tuvo que realizar algunos juegos. “Por ejemplo, hizo el juego del Dictador. En él, le daban 100 dólares y le preguntaban en silencio cuánto le daría a un jugador humano. Como los demás jugadores no se enteran de nada, una gran parte de los jugadores humanos normalmente deciden no dar nada. Pero ChatGPT-4 siempre quiso ofrecer 50 $, lo que el bot consideró un reparto justo. ChatGPT-3 tenía una estrategia más variable, que ascendía a una media de 30 dólares para el otro jugador, que sigue siendo más de lo que los humanos dan de media”, afirma el científico estadounidense.

Pero eso no fue todo. “En otro juego, el de la confianza, ChatGPT interpreta a un inversor que invierte entre 0 y 100 dólares con un banquero. A continuación, el banquero triplica esa cantidad. Pero este decide en silencio cuánto se queda para él y cuánto devuelve al inversor. Por tanto, el inversor invertirá más si confía más en el banquero. ChatGPT-4 confiaba en el banquero relativamente más que ChatGPT-3 y más que los jugadores humanos. Así, el chatbot moderno confiaba más en el banquero humano que en los propios humanos”, explicó el investigador Qiaozhu Mei.

Mejor confianza en alguna tareas

La pregunta es: ¿cómo aprende ChatGPT todo este comportamiento tan típicamente humano? “Este tipo de grandes modelos lingüísticos se entrenan para predecir las siguientes palabras de una conversación. No está claro cómo aprenden comportamientos específicos. Nuestro estudio demuestra que ChatGPT aprende del contexto y de experiencias anteriores, lo que indica que hay una forma de dirigirlo hacia un comportamiento determinado en lugar de entrenarlo para que diga lo que la gente quiere oír”.

Los resultados sorprendieron gratamente a los investigadores. “Lo más importante es que ChatGPT superó la prueba de Turing. Es decir, se comportaba igual que los humanos. Pero lo más sorprendente es que ChatGPT se mostró más altruista y dispuesto a cooperar que el humano medio. Se trata de una buena noticia, porque así podríamos confiarle mejor a la IA ciertas tareas en las que esos rasgos son útiles, como la asistencia sanitaria, la negociación o la mediación en conflictos”.

ChatGPT ya es como un humano

Así que ChatGPT es cada vez más humano. De hecho, ya ni siquiera se distingue de un humano. Esto significa que en el futuro, por tanto, lo trataremos como tal, piensa Qiaozhu Mei. “Por ejemplo, podemos hacer que una IA vaya a entrevistas de trabajo antes de decidir si la contratamos para determinadas tareas”, afirma el investigador. “Pero el siguiente paso es construir una tecnología que nos permita orientar determinados comportamientos para que la IA se ajuste a la diversidad de valores humanos. Entonces ChatGPT y la IA serán más fiables también para tareas más importantes, y los humanos podrán trabajar mejor con la IA en tareas complejas”.

Pero también hay inconvenientes. “Un hallazgo importante es que mientras ChatGPT se comporta igual que el humano medio, el comportamiento humano en su conjunto es mucho más diverso. Esto significa que tenemos que tener cuidado a la hora de confiar en las decisiones de la IA en escenarios en los que es importante contar con diferentes opiniones personales”.

Artículo Anterior Artículo Siguiente

Formulario de contacto