Inicio
IA
Inteligencia Artificial
Tecnología
La IA podría estar detrás del fracaso para detectar vida inteligente en el universo
miércoles, mayo 15, 2024

La IA podría estar detrás del fracaso para detectar vida inteligente en el universo

La posibilidad de que la rápida evolución de la inteligencia artificial, particularmente hacia una superinteligencia, podría servir como un “gran filtro” en la búsqueda de vida extraterrestre.

La IA ha despegado en los últimos años. Mientras los simples mortales seguimos luchando con su aplicación, algunos científicos ya trabajan en la aparición de una super IA. Y al hacerlo, pensando un paso más allá: sería la razón por la que nunca hemos visto vida extraterrestre.

Una superinteligencia artificial (ASI) no solo es más inteligente que los humanos, sino que además ya no está ligada al ritmo de aprendizaje de estos. Es una superpotencia que todo lo trasciende, lo que podría representar tanto un hito asombroso como nuestra perdición. Sería el “gran filtro” del universo, escribe el astrónomo escocés Michael Garrett, un obstáculo tan difícil de superar que impide que la mayoría de las formas de vida evolucionen hasta convertirse en viajeros espaciales.

Respuesta a la paradoja de Fermi

Podría explicar por qué nuestra búsqueda de inteligencia extraterrestre aún no ha dado ningún resultado. Una solución a la paradoja de Fermi, entonces: en un universo tan antiguo y grande que podría haber miles de millones de planetas potencialmente habitables, ¿por qué nunca hemos encontrado ninguna señal de una civilización extraterrestre? Pues sería porque hay obstáculos evolutivos insalvables, como el paso a la super IA, que impiden a las civilizaciones viajar realmente lejos en el espacio.

“Creo que el auge de la ASI (superinteligencia artificial) podría ser uno de esos filtros. El rápido avance de la IA, que posiblemente conduzca a la ASI, podría llevar a una etapa crucial en el desarrollo de una civilización: la transición de una especie de un solo planeta a una especie multiplanetaria”, explica Garrett. “En el proceso, muchas civilizaciones podrían colapsar, ya que la IA avanza mucho más rápido que nuestra capacidad para controlarla o explorar y poblar de forma sostenible nuestro sistema solar”.

La gran fuerza (y el gran problema) de la IA y especialmente de la super IA es su capacidad de autoaprendizaje. La inteligencia artificial sabe cómo mejorar sus propias capacidades a una velocidad tremendamente alta. En el proceso, todo tipo de cosas pueden salir mal y eso puede llevar a la caída de una civilización, incluso antes de que tenga la oportunidad de encontrar otros planetas. Por ejemplo, los países confían cada vez más en la IA y acaban cediendo el poder a sistemas de IA autónomos que luchan entre sí y despliegan armas para causar muerte y destrucción. Esto podría llevar potencialmente a la destrucción de una civilización, incluida la super IA.

Y esa desaparición también podría llegar pronto, cree el astrónomo escocés. “En este escenario, estimo que la vida útil típica de una civilización tecnológica es de menos de 100 años. Eso es aproximadamente el período entre el momento en que fuimos capaces de captar y transmitir señales desde el espacio (1960), y la aparición estimada de ASI (2040) en la Tierra”.

Mejor vigilancia de la IA

Por supuesto, eso es enormemente corto en la escala cósmica de miles de millones de años. Si se introduce esta estimación en la ecuación de Drake, que trata de calcular el número de civilizaciones alienígenas activas y comunicantes en la Vía Láctea, solo existirían un puñado de civilizaciones inteligentes en un momento dado. Además, al igual que nosotros, es de suponer que no están lo suficientemente avanzadas tecnológicamente como para encontrarnos.

Sobre todo, el estudio quiere advertir para vigilar y controlar mejor el desarrollo de la IA, y también de los sistemas militares de IA. Al hacerlo, no solo debemos evitar el uso malicioso de la IA, sino también garantizar que la evolución de la inteligencia artificial sea coherente con la supervivencia a largo plazo de nuestra especie.

Una cuestión crucial para la humanidad

Ya hay pruebas de que los humanos están cediendo voluntariamente un poder considerable a una IA cada vez más inteligente, simplemente porque realiza muchas tareas de forma más rápida y eficaz, sin intervención humana. Por eso los gobiernos son reacios a regular: también quieren maximizar los beneficios. Pero debemos tener cuidado de que los sistemas de IA no pongan en marcha una cadena de acontecimientos destructivos que vayan en aumento, afirma el investigador.

“La humanidad se encuentra en un momento crucial de su desarrollo tecnológico. Nuestras acciones ahora pueden determinar si nos convertimos en una civilización interestelar duradera o sucumbimos a los retos que nos plantea la IA”.

Sin comentarios