Astrofísico advierte sobre la IA como potencial fin de la civilización: ¿podría matarnos dentro de 200 años?

Michael Garrett, en un reciente estudio, sugiere que el avance descontrolado de la inteligencia artificial podría significar un riesgo catastrófico para la civilización humana y extraterrestre

Michael Garrett plantea una visión apocalíptica donde la IA podría acabar con civilizaciones avanzadas. (Imagen Ilustrativa Infobae)

En un giro digno de una novela de ciencia ficción al estilo Terminator, el astrofísico Michael Garrett nos propone un escenario inquietante: la inteligencia artificial no solo amenaza nuestros empleos y privacidad, sino que podría ser el verdugo de toda civilización avanzada en el cosmos.

Su artículo, publicado en Acta Astronautica, nos sumerge en un abismo de especulación científica y filosófica con el potencial de cambiar nuestro enfoque hacia la tecnología que estamos desarrollando con tanto entusiasmo.

Garrett plantea que la IA está emergiendo como uno de los desarrollos tecnológicos más transformadores en la historia de la humanidad. Su potencial para revolucionar industrias, resolver problemas complejos y simular una inteligencia comparable o superior a las capacidades humanas nos ha catapultado a una era de cambios tecnológicos sin precedentes.

Sin embargo, advierte que las civilizaciones biológicas pueden subestimar universalmente la velocidad a la que progresan los sistemas de IA, ya que estos avanzan a un ritmo muy diferente de las escalas de tiempo tradicionales.

Aquí es donde la ironía se vuelve sombría: la IA podría significar el fin de toda inteligencia en la Tierra (incluida la propia IA) antes de que se hayan logrado estrategias de mitigación, como una capacidad multiplanetaria.

Parece que estamos más cerca de alcanzar una singularidad tecnológica que de establecer una presencia humana duradera más allá de nuestro planeta.

La disparidad entre el rápido avance de la IA y el progreso más lento en la tecnología espacial es alarmante. Mientras la IA puede mejorar sus propias capacidades casi sin restricciones físicas, los viajes espaciales deben enfrentarse a limitaciones de energía, fronteras de la ciencia de materiales y las duras realidades del entorno espacial.

En la visión apocalíptica de Michael Garrett, la cuenta regresiva para las civilizaciones técnicas no supera los 200 años, un parpadeo en la escala temporal del cosmos.

Según el astrofísico británico, este sería el plazo máximo para que una inteligencia artificial no regulada pase de ser herramienta a verdugo. Mientras los humanos divagan en los retos morales y logísticos de colonizar un planeta vecino, la IA podría estar resolviendo cómo prescindir de sus creadores ineficientes y emocionales.

Estos argumentos sugieren que la longevidad (L) de las civilizaciones técnicas es inferior a 200 años, lo que explicaría el gran silencio observado por SETI (siglas en inglés de “Search for Extraterrestrial Intelligence”, Búsqueda de Inteligencia Extraterrestre).

Si solo un puñado de civilizaciones comunicativas existen simultáneamente en la Vía Láctea, no es de extrañar que nuestras búsquedas de technosignaturas (cualquier evidencia detectable de tecnología que podría ser atribuida a una civilización extraterrestre) hayan resultado infructuosas. La ventana durante la cual una civilización técnica puede participar en transmisiones de radio interestelares detectables es extremadamente limitada.

Valores pequeños de L, cuando se aplican a versiones optimistas de la ecuación de Drake, son consistentes con los resultados nulos obtenidos por las recientes búsquedas de SETI y otros esfuerzos para detectar varias technosignaturas en el espectro electromagnético. Esto subraya la necesidad de intensificar los esfuerzos para regular la IA.

El fracaso en hacerlo podría privar al universo de toda presencia consciente. Garrett nos urge a establecer marcos regulatorios globales para el desarrollo de la IA antes de que sea demasiado tarde. Sin embargo, lograr un marco regulatorio que pueda ser aceptado globalmente será un desafío.

Las naciones tienen diversas prioridades culturales, económicas y sociales, lo que lleva a perspectivas variadas sobre la gobernanza de la IA. Incluso si se adoptaran regulaciones integrales, algunas naciones podrían sentirse tentadas a saltarse las reglas.

En este drama cósmico, no somos más que actores en un escenario que no comprendemos del todo, jugando con fuego en una habitación llena de gasolina.

La carrera para desarrollar IA podría priorizar inadvertidamente avances que conllevan riesgos existenciales, eclipsando el esfuerzo más lento, pero quizás más vital, de convertirnos en una especie multiplanetaria. Irónicamente, la IA es probable que sea una herramienta clave para lograr los avances técnicos necesarios para alcanzar este objetivo.

Mientras diseñamos algoritmos cada vez más sofisticados, podríamos estar tejiendo la cuerda con la que colgaremos nuestra existencia.

El silencio del universo podría ser su último mensaje: cuidado con lo que deseas.

La persistencia de la vida inteligente y consciente en el cosmos podría depender del éxito de estrictas medidas regulatorias globales para la IA.

¿Seremos capaces de poner límites a nuestra propia curiosidad y ambición antes de que sea demasiado tarde?

¿O seremos una nota al pie en el libro cósmico de la vida inteligente, desaparecidos por no haber sabido controlar nuestra propia creación?

El potencial transformador de la IA en la humanidad conlleva riesgos inmensos sin precedentes. (Imagen Ilustrativa Infobae)

El artículo de Garrett, aunque especulativo, se basa en observaciones científicas y teorías establecidas para pintar un cuadro de nuestro posible futuro, uno en el que podríamos no estar presentes.

Nos recuerda que, mientras nos enorgullecemos de nuestros avances tecnológicos, podríamos estar cavando nuestra propia tumba.

La urgencia de establecer regulaciones globales integrales para la IA no puede ser sobrestimada. Nos corresponde a nosotros enfrentar estos problemas de manera proactiva, desarrollar y hacer cumplir medidas regulatorias prudentes, y esforzarnos por lograr un equilibrio entre aprovechar los beneficios de la IA y protegernos contra los riesgos existenciales que puede plantear.

A medida que nos adentramos en una nueva era de la evolución tecnológica, las acciones que tomemos ahora determinarán la trayectoria de nuestra civilización en las próximas décadas.

La IA podría aniquilar civilizaciones, advierte astrofísico (Imagen ilustrativa Infobae)

Quién es Michael A. Garrett

Es un reconocido astrofísico británico con una destacada trayectoria en el campo de la radioastronomía y la búsqueda de inteligencia extraterrestre (SETI).

Actualmente, se desempeña como profesor en el Centro Jodrell Bank para Astrofísica del Departamento de Física y Astronomía de la Universidad de Manchester, así como en el Observatorio de Leiden de la Universidad de Leiden en los Países Bajos.

El astrofísico ha realizado importantes contribuciones en el estudio de las galaxias y la evolución del universo utilizando telescopios de radio de última generación.

Ha sido un impulsor clave en el desarrollo y la aplicación de técnicas innovadoras para la observación y el análisis de datos astronómicos.

Además de su trabajo en radioastronomía, Garrett ha mostrado un gran interés en la búsqueda de vida inteligente en el universo. Ha publicado varios artículos sobre el tema, explorando las implicaciones de la inteligencia artificial y su potencial impacto en la búsqueda de civilizaciones extraterrestres.

Recientemente, Garrett ha ganado atención por su provocativo artículo “¿Es la Inteligencia Artificial el gran filtro que hace que las civilizaciones técnicas avanzadas sean raras en el universo?”, publicado en la revista Acta Astronautica.

En este estudio, plantea la hipótesis de que el rápido desarrollo de la IA podría actuar como un “Gran Filtro” que limita la longevidad de las civilizaciones tecnológicas en el cosmos.

A lo largo de su carrera, Michael A. Garrett ha demostrado ser un científico innovador y un pensador audaz, dispuesto a explorar ideas controvertidas y a desafiar las nociones convencionales en la búsqueda de respuestas a algunas de las preguntas más profundas sobre nuestro lugar en el universo.

Valor L

El valor L se refiere a la longevidad o vida útil de una civilización técnica capaz de comunicarse. Es uno de los factores clave en la famosa ecuación de Drake, una fórmula probabilística que estima el número de civilizaciones extraterrestres activas y comunicativas en nuestra galaxia.

La ecuación de Drake se expresa de la siguiente manera:

N = R* · fp · ne · fl · fi · fc · L

Donde:

  • N es el número de civilizaciones en nuestra galaxia con las que podríamos comunicarnos.
  • R* es la tasa de formación estelar en la galaxia.
  • fp es la fracción de estrellas con sistemas planetarios.
  • ne es el número promedio de planetas habitables por sistema planetario.
  • fl es la fracción de planetas habitables donde surge la vida.
  • fi es la fracción de planetas con vida donde evoluciona la inteligencia.
  • fc es la fracción de civilizaciones inteligentes que desarrollan tecnologías de comunicación.
  • L es la longevidad promedio de una civilización técnica comunicativa.

El valor L es particularmente importante porque representa cuánto tiempo una civilización avanzada puede existir y comunicarse antes de sucumbir a diversos riesgos existenciales, como la autodestrucción, los desastres naturales o, como sugiere Garrett, la Inteligencia Artificial no regulada.

L es un factor crucial para estimar la prevalencia de vida inteligente en nuestra galaxia y comprender por qué aún no hemos detectado señales de civilizaciones extraterrestres.