El debate más reciente sobre la inteligencia artificial no solo se ha centrado en su regulación o los usos potenciales que tiene, sino también en los riesgos que supondría para la humanidad y su supervivencia. En el pasado algunos expertos se mostraron preocupados y en un pronunciamiento público indicaron que las IA podrían ser tan peligrosas como una pandemia o una guerra nuclear.
Sin embargo, otro grupo de expertos consideran que esta es una advertencia sobredimensionada y que las inteligencias artificiales no representan un riesgo para la humanidad, sino un beneficio. Aunque sí aceptan que estas no están libres de ser usadas de formas inadecuadas.
Según Adnan Masood, Jefe de inteligencia artificial en UST y Director Regional en Microsoft, “la IA como la conocemos actualmente no representa un riesgo existencial. Aún no hemos creado nada que se acerque al nivel de consciencia de un perro y mucho menos a la inteligencia humana”.
Además, Masood aseguró que la humanidad no está a un nivel de sofisticación que permita crear “máquinas que causan un apocalipsis” pese a que incluso Sam Altman, cofundador y CEO de OpenAI, responsable de programas como ChatGPT, piensa de esta forma.
El experto considera que en lugar de las inteligencias artificiales, los riesgos para la existencia humana son el cambio climático, la extrema pobreza y las guerras. “Sugerir que las IA, en su estado actual, son un riesgo comparable, es una falsa equivalencia”, afirmó.
Pese a ello, sí reconoció que no existe una inteligencia artificial que suponga un riesgo en algún nivel. El sesgo en su programación puede causar campañas de desinformación es solo un ejemplo de ello, aunque hay muchas formas de usar incorrectamente un programa de este tipo. Aún así, Masood cree que esto no es motivo de catalogar a la IA en sí misma como un peligro.
“Son riesgos que se pueden manejar y mitigar por medio de un diseño cuidadoso, pruebas concretas y un despliegue responsable (...) son parte del proceso de la integración de una nueva tecnología en nuestra sociedad”, aseguró.
Al igual que Masood, Altman indicó en una entrevista con ABC News en marzo del año 2023 que es necesario que esta tecnología se encuentre al alcance de las personas aún en sus etapas tempranas y cuando pueden cometer errores pequeños para corregirlos antes de que se generen otros más grandes.
“Debemos tener cuidado y al mismo tiempo entender que no sirve tenerlo todo en un laboratorio. Es un producto que debemos difundir y que haga contacto con la realidad y tener errores mientras los riesgos son bajos. Habiendo dicho eso, creo que la gente debería estar feliz de que estemos algo asustados de esto. Si pudiera decir que no me asusta, no deberías confiar en mi (...)”, afirmó Altman.
Por otro lado, la regulación de las inteligencias artificiales estaría llegando a su punto más alto en Europa luego de que Altman asistiera presencialmente a reuniones con diferentes líderes de la Unión Europea para discutir algunas propuestas de los legisladores para proteger a los ciudadanos de posibles riesgos de seguridad y privacidad durante el uso de ChatGPT y otras tecnologías similares.
El CEO de OpenAI indicó que intentará cumplir con los estándares europeos que se aprueben en la medida de lo posible, pero si no se consigue, tendría que dejar de operar en esa región. Posteriormente aseguró que su compañía no tiene planes de dejar de funcionar en este continente.