Un grupo de científicos pioneros de la inteligencia artificial (IA) lanzó una advertencia global sobre los potenciales riesgos catastróficos que el rápido desarrollo de esta tecnología podría acarrear. En su declaración más reciente, llaman a la creación de una autoridad internacional que supervise y regule la IA, destacando la necesidad urgente de actuar ante posibles desenlaces peligrosos.
La reunión de científicos de múltiples naciones, entre ellas Estados Unidos, China, Canadá y Singapur, tuvo lugar en septiembre en Venecia, Italia como parte del tercer encuentro de los Diálogos Internacionales sobre la Seguridad de la IA, organizados por el Safe AI Forum.
Según informó The New York Times, este foro es un proyecto de Far.AI, un grupo de investigación sin fines de lucro con sede en Estados Unidos.
Gillian Hadfield, académica legal y profesora de ciencia computacional y gobierno en la Universidad Johns Hopkins, expresó su inquietud sobre la capacidad actual de las naciones para manejar una posible catástrofe. La declaración fue firmada también por varios laureados con el Premio Turing, como Yoshua Bengio, Andrew Yao y Geoffrey Hinton.
Las preocupaciones de estos científicos se centran en la posibilidad de que la tecnología que ayudaron a desarrollar supere las capacidades humanas, lo que podría resultar en “pérdida de control humano o uso malicioso de estos sistemas de inteligencia artificial, conduciendo a resultados catastróficos para toda la humanidad”, informó The New York Times.
En el encuentro en Venecia también participaron destacados representantes de instituciones de investigación en IA de China, algunas financiadas por el estado y que asesoran al gobierno. La ex presidenta de Irlanda, Mary Robinson, y Fu Ying, ex funcionaria del Ministerio de Relaciones Exteriores de China, también brindaron su apoyo al esfuerzo.
Haciendo referencia a eventos históricos, Bengio comparó la situación con los diálogos entre científicos estadounidenses y soviéticos durante la Guerra Fría, que ayudaron a evitar una catástrofe nuclear. Él mencionó en una entrevista con The New York Times que “en ambos casos, los científicos sintieron la obligación de cerrar la caja de Pandora abierta por su investigación”.
El creciente descontento entre Estados Unidos y China en su competencia tecnológica complica aún más la cooperación. “Ambos países desconfían enormemente de las intenciones del otro”, dijo Matt Sheehan, becario en la Fundación Carnegie para la Paz Internacional, citado por The New York Times. “Están preocupados de que si frenan debido a preocupaciones de seguridad, eso permitirá que el otro avance rápidamente”, agregó.
The Times también destacó que en los últimos meses han surgido potentes tecnologías de IA en China, a la par de las estadounidenses. Mientras tanto, ambos gobiernos han dado pasos significativos en torno a la regulación.
En julio, un cónclave del Partido Comunista Chino propuso un sistema para regular la seguridad de la IA, y recientemente un grupo influyente de normas técnicas en China publicó un marco de seguridad para dicha tecnología.
En Estados Unidos, el año pasado el presidente Joe Biden firmó una orden ejecutiva que obliga a las empresas a informar al gobierno federal sobre los riesgos potenciales que sus sistemas de IA pudieran suponer, como la creación de armas de destrucción masiva o su posible uso por parte de terroristas.
Durante una reunión, Biden y el líder chino Xi Jinping acordaron que sus funcionarios discutirían la seguridad de la IA, con la primera reunión teniendo lugar en Ginebra.