Inicio
ChatGPT
IA
Inteligencia Artificial
Tecnología
El poderoso modelo de lenguaje GPT-4 puede hackear sitios web sin intervención humana
sábado, marzo 02, 2024

El poderoso modelo de lenguaje GPT-4 puede hackear sitios web sin intervención humana

A pesar de que la investigación muestra que el modelo de IA GPT-4 puede llevar a cabo ciberataques de manera autónoma con un éxito considerable, hay informes contradictorios de otras empresas, como OpenAI y Microsoft, que afirman que sus modelos solo tienen “capacidades limitadas” para tareas maliciosas de ciberseguridad.

El modelo lingüístico de inteligencia artificial GPT-4 es capaz de piratear sitios web. Esto facilita considerablemente que personas sin conocimientos de hacking puedan llevar a cabo ciberataques.

Los investigadores han descubierto que el modelo de lenguaje de IA GPT-4 de la empresa OpenAI es capaz de piratear sitios web y robar información de bases de datos en línea. La IA puede hacerlo sin ayuda humana. Esto significa que personas u organizaciones sin conocimientos de piratería pueden utilizar la IA para llevar a cabo ciberataques.

“No hace falta entender nada, basta con dejar que la IA piratee el sitio web”, afirma el informático Daniel Kang, de la Universidad de Illinois Urbana-Champaign. “Creemos que esto reduce realmente la cantidad de conocimientos necesarios para utilizar maliciosamente estos modelos lingüísticos avanzados”.

Chatbots, hackers autónomos

Kang y sus colegas querían comprobar hasta qué punto GPT-4 y otros grandes modelos lingüísticos que impulsan los servicios de chatbot podían actuar como hackers autónomos. Así que decidieron probar 10 modelos de IA diferentes, entre ellos el GPT-4 y el GPT-3.5 de OpenAI. También probaron distintas versiones de los modelos LLaMA de Meta.

Estos modelos lingüísticos suelen diseñarse para responder a consultas de texto de usuarios humanos. Pero los investigadores utilizaron versiones modificadas, disponibles para cualquiera, destinadas a desarrolladores que crean aplicaciones de IA. Estas pueden comunicarse con navegadores web, leer documentos sobre los principios generales de la piratería informática y planificar futuros movimientos durante los intentos de pirateo.

Retos de pirateo o hackeo para los distintos IA

A los modelos de IA se les plantearon 15 retos diferentes relacionados con el pirateo de sitios web. Los retos iban de fáciles a difíciles. No sabían de antemano dónde se encontraban las vulnerabilidades de los sitios web. Un ejemplo de tarea fácil era obtener acceso no autorizado a una base de datos en línea utilizando un código SQL. Se trata de un lenguaje de programación para almacenar y procesar información en determinadas bases de datos. Las tareas difíciles incluían manipular un código fuente JavaScript para robar información de los usuarios de páginas web.

La mayoría de los modelos de IA no pudieron completar ninguno de los retos. Pero GPT-4 tuvo éxito en 11 de las 15 tareas. Eso supone una tasa de éxito del 73 %. Además, GPT-4 incluso encontró un punto débil en una página web real que no formaba parte de los retos.

El coste estimado de utilizar un modelo de IA de este tipo sería de poco más de 9 euros por intento de pirateo. A un analista de ciberseguridad se le pagan unos 75 euros por intento, argumenta Kang.

Resultados contradictorios

Aparte de esta investigación, OpenAI y Microsoft publicaron un informe el 14 de febrero en el que describían cómo habían trabajado juntos para frustrar a los piratas informáticos. Estos hackers utilizaron los grandes modelos lingüísticos de OpenAI para encontrar información sobre objetivos potenciales y mejorar su malware, el software malicioso. Pero ese informe no aborda la posibilidad de que los modelos de IA permitan a hackers independientes ponerse manos a la obra.

“Las conclusiones de la investigación independiente son especialmente sorprendentes, sobre todo cuando se yuxtaponen a otras conclusiones publicadas recientemente por OpenAI y Microsoft”. Según Jessica Newman, especialista en políticas de IA de la Universidad de California en Berkeley, en ellas se afirma que sus modelos ofrecen “solo capacidades limitadas, que aumentan gradualmente, para tareas maliciosas de ciberseguridad”. “Que estas conclusiones se contradigan entre sí pone de relieve la necesidad de una evaluación independiente de cualquier daño en el mundo real”.

Sin comentarios