Mientras la inteligencia artificial (IA) se integra cada vez más en la vida cotidiana (desde vehículos autónomos hasta diagnósticos médicos), crece también la preocupación sobre cómo regular su desarrollo sin frenar la innovación. Dos expertos estadounidenses sostienen que no deberíamos intentar contener a la IA con reglas estrictas, sino gestionarla con una correa flexible que garantice el control humano permanente.
La inteligencia artificial avanza a pasos agigantados. En cuestión de años, ha dejado de ser un concepto futurista para convertirse en una herramienta esencial en múltiples sectores: sistemas de salud que predicen enfermedades, autos que se conducen solos, algoritmos que deciden a quién contratar en un proceso de selección o qué contenidos mostrar en redes sociales. Las oportunidades son inmensas, pero los riesgos también.
En este contexto, un reciente estudio publicado en la revista científica Risk Analysis, firmado por Cary Coglianese (jurista de la Universidad de Pensilvania) y Colton Crum (científico informático de la Universidad de Notre Dame), propone un cambio de paradigma en la forma en que regulamos estas tecnologías. Según los autores, en lugar de intentar establecer barreras legales rígidas que intenten anticipar todos los posibles problemas, deberíamos adoptar un enfoque más dinámico, centrado en la supervisión y responsabilidad continua por parte de quienes desarrollan y utilizan la IA.
“Guardarraíles” o “correa”: dos visiones regulatorias enfrentadas
Una de las metáforas centrales del estudio de Coglianese y Crum es la comparación entre dos formas de regulación: los “guardarraíles” y la “correa, o correa de perro”.
Tradicionalmente, las discusiones políticas y regulatorias han girado en torno al concepto de los guardarraíles: límites legales definidos, sanciones específicas, normas estrictas. Estas reglas se conciben como una forma de evitar que los sistemas de IA se salgan del camino y causen daño. Pero los autores del estudio argumentan que este modelo no se ajusta a la realidad cambiante de la tecnología.
“Los planteamientos que dependen de reglas fijas parten de la premisa de que esas reglas pueden ofrecer protección”, explica Coglianese. “Pero la inteligencia artificial no opera dentro de rutas fijas. Cambia constantemente, evoluciona con rapidez, y sus aplicaciones son cada vez más variadas. Es poco realista pensar que los legisladores puedan prever hoy todas las leyes necesarias para cada posible uso futuro”.
Además, añade el experto, un enfoque excesivamente restrictivo podría tener consecuencias negativas para la sociedad. “Incluso si se lograra regular completamente cada uso de la IA mediante normas detalladas, eso no sería necesariamente beneficioso. Podría sofocar la innovación”, sostiene.
Frente a esta rigidez, Coglianese y Crum proponen un sistema que denominan “regulación con correa”. Se trata de permitir que la IA explore y se desarrolle, pero sin soltar nunca la supervisión humana. Es una forma de regulación basada en el principio de “flexible donde se pueda, estricta donde se necesite”.
La IA no es una máquina descontrolada, pero tampoco un agente autónomo
La elección de la metáfora no es casual. Coglianese compara a la IA con un perro: “La inteligencia artificial es un tipo de inteligencia, igual que los perros lo son. Quien haya paseado a un perro sabe que puedes dejarlo olfatear, incluso alejarse un poco, pero la correa siempre está en tu mano. Si hace falta, tiras de ella”.
Ese es precisamente el enfoque que los investigadores consideran más apropiado para la IA. No se trata de dejar que haga lo que quiera, pero tampoco de restringirla hasta el punto de anular su potencial. En su lugar, proponen un sistema de regulación basada en la gestión (management-based regulation): una estructura legal que no dicta paso a paso lo que debe hacerse, sino que obliga a las empresas y organizaciones a ser responsables y transparentes en la forma en que gestionan los riesgos.
Este modelo ya se utiliza en otros sectores de alto riesgo, como la aviación o la energía nuclear, donde las empresas tienen la obligación de identificar posibles problemas, evaluar su impacto y demostrar cómo planean mitigarlos, incluso antes de que ocurran.
Riesgos reales que requieren acción continua
Los autores del estudio no hablan desde la teoría. En su artículo, detallan varios casos en los que los sistemas de inteligencia artificial han generado problemas significativos en la práctica:
- Vehículos autónomos que han estado involucrados en accidentes mortales.
- Redes sociales que afectan negativamente la salud mental de los jóvenes.
- Sistemas de decisión automatizados que reproducen o amplifican sesgos y discriminaciones, como algoritmos que rechazan a candidatos por su origen étnico o generadores de imágenes que refuerzan estereotipos de género o raza.
El sesgo (o bias) es especialmente preocupante. “Los modelos de IA no son capaces de identificar o evitar sesgos por sí solos”, subraya Coglianese. “Simplemente ejecutan lo que les enseñamos. Solo mediante una supervisión humana responsable podemos detectar y corregir este tipo de problemas”.
Una ley puede decir “evite la discriminación”, pero la forma concreta de aplicar ese principio varía enormemente según el contexto. Por eso, la flexibilidad del sistema de “correa” resulta clave. Las organizaciones deben probar sus sistemas para detectar sesgos antes de que entren en funcionamiento y continuar evaluándolos regularmente.
Adaptabilidad en múltiples dominios
Una de las principales ventajas del modelo propuesto por Coglianese y Crum es su versatilidad. No todos los sistemas de inteligencia artificial funcionan igual ni tienen las mismas implicaciones. Una IA utilizada en un quirófano, por ejemplo, no presenta los mismos riesgos ni necesidades regulatorias que una IA que modera contenido en una red social o que optimiza rutas de entrega en logística.
“Cada aplicación de IA es diferente”, explica Crum. “Pero precisamente por eso funciona tan bien la regulación basada en la gestión. Es adaptable, escalable y se ajusta a la realidad”.
Esto significa que una empresa automotriz y una plataforma de redes sociales no estarán sujetas a las mismas reglas exactas, pero sí compartirán una misma obligación: demostrar que están evaluando riesgos, gestionándolos adecuadamente y respondiendo cuando algo sale mal. En otras palabras, todos deben tener su IA sujeta con una correa, aunque esa correa sea distinta en cada caso.
La responsabilidad no es solo de los ingenieros
El artículo concluye con un llamado al futuro: preparar a la nueva generación para enfrentar estos desafíos éticos, técnicos y sociales. Coglianese insiste en que la seguridad de la IA no es un asunto exclusivo de especialistas en informática o de legisladores.
“Una educación que estimule el pensamiento crítico, que proporcione una base matemática sólida y que tenga en cuenta los valores humanos es fundamental”, señala. “La seguridad de la IA es una responsabilidad compartida, del mismo modo que aceptamos esa responsabilidad compartida en sectores como la medicina o la aviación”.
Esto significa que abogados, sociólogos, educadores y diseñadores, junto con programadores e ingenieros, deben participar en la construcción de un ecosistema ético y seguro para la inteligencia artificial. No basta con crear tecnologías eficientes: deben ser también equitativas, explicables y humanas.
Una nueva forma de legislar lo desconocido
Lo que proponen Coglianese y Crum es una transformación en nuestra forma de pensar la ley. En lugar de escribir códigos inamovibles para un futuro que no conocemos, sugieren crear marcos regulatorios que evolucionen con la tecnología. Que no bloqueen lo nuevo, pero tampoco dejen espacio para la negligencia.
El reto, por tanto, no es diseñar un sistema perfecto desde el inicio, sino construir uno que sea capaz de aprender, adaptarse y corregirse en el camino. Como una correa que permite cierta libertad, pero que nunca pierde el control.
Dejar que la IA “olfatee” nuevos caminos, como haría un perro curioso, puede ser beneficioso. Pero siempre y cuando quien sostiene la correa (la sociedad, a través de las instituciones y la regulación) esté preparado para intervenir cuando sea necesario.
Fuente: Coglianese, Cary and Crum, Colton R., Leashes, Not Guardrails: A Management-Based Approach to Artificial Intelligence Risk Regulation (February 12, 2025). U of Penn Law School, Public Law Research Paper No. 25-04, Risk Analysis, forthcoming, Available at SSRN: http://dx.doi.org/10.2139/ssrn.5137081
Sin comentarios