La inteligencia artificial no supone riesgos para la humanidad, qué dicen los expertos

Adnan Masood, representante de Microsoft, considera que se han sobredimensionado los peligros en el desarrollo de las IA

Guardar
Adnan Masood, representante de Microsoft, indicó que los riesgos de la inteligencia artificial se pueden manejar. (Freepik)
Adnan Masood, representante de Microsoft, indicó que los riesgos de la inteligencia artificial se pueden manejar. (Freepik)

El debate más reciente sobre la inteligencia artificial no solo se ha centrado en su regulación o los usos potenciales que tiene, sino también en los riesgos que supondría para la humanidad y su supervivencia. En el pasado algunos expertos se mostraron preocupados y en un pronunciamiento público indicaron que las IA podrían ser tan peligrosas como una pandemia o una guerra nuclear.

Sin embargo, otro grupo de expertos consideran que esta es una advertencia sobredimensionada y que las inteligencias artificiales no representan un riesgo para la humanidad, sino un beneficio. Aunque sí aceptan que estas no están libres de ser usadas de formas inadecuadas.

Según Adnan Masood, Jefe de inteligencia artificial en UST y Director Regional en Microsoft, “la IA como la conocemos actualmente no representa un riesgo existencial. Aún no hemos creado nada que se acerque al nivel de consciencia de un perro y mucho menos a la inteligencia humana”.

Además, Masood aseguró que la humanidad no está a un nivel de sofisticación que permita crear “máquinas que causan un apocalipsis” pese a que incluso Sam Altman, cofundador y CEO de OpenAI, responsable de programas como ChatGPT, piensa de esta forma.

Adnan Masood, representante de Microsoft, indicó que los riesgos de la inteligencia artificial se pueden manejar. (REUTERS/Florence Lo)
Adnan Masood, representante de Microsoft, indicó que los riesgos de la inteligencia artificial se pueden manejar. (REUTERS/Florence Lo)

El experto considera que en lugar de las inteligencias artificiales, los riesgos para la existencia humana son el cambio climático, la extrema pobreza y las guerras. “Sugerir que las IA, en su estado actual, son un riesgo comparable, es una falsa equivalencia”, afirmó.

Pese a ello, sí reconoció que no existe una inteligencia artificial que suponga un riesgo en algún nivel. El sesgo en su programación puede causar campañas de desinformación es solo un ejemplo de ello, aunque hay muchas formas de usar incorrectamente un programa de este tipo. Aún así, Masood cree que esto no es motivo de catalogar a la IA en sí misma como un peligro.

“Son riesgos que se pueden manejar y mitigar por medio de un diseño cuidadoso, pruebas concretas y un despliegue responsable (...) son parte del proceso de la integración de una nueva tecnología en nuestra sociedad”, aseguró.

Al igual que Masood, Altman indicó en una entrevista con ABC News en marzo del año 2023 que es necesario que esta tecnología se encuentre al alcance de las personas aún en sus etapas tempranas y cuando pueden cometer errores pequeños para corregirlos antes de que se generen otros más grandes.

El CEO de OpenAI, Sam Altman, indicó que intentará cumplir con la normativa europea una vez que se apruebe. (AP Foto/Alastair Grant)
El CEO de OpenAI, Sam Altman, indicó que intentará cumplir con la normativa europea una vez que se apruebe. (AP Foto/Alastair Grant)

“Debemos tener cuidado y al mismo tiempo entender que no sirve tenerlo todo en un laboratorio. Es un producto que debemos difundir y que haga contacto con la realidad y tener errores mientras los riesgos son bajos. Habiendo dicho eso, creo que la gente debería estar feliz de que estemos algo asustados de esto. Si pudiera decir que no me asusta, no deberías confiar en mi (...)”, afirmó Altman.

Por otro lado, la regulación de las inteligencias artificiales estaría llegando a su punto más alto en Europa luego de que Altman asistiera presencialmente a reuniones con diferentes líderes de la Unión Europea para discutir algunas propuestas de los legisladores para proteger a los ciudadanos de posibles riesgos de seguridad y privacidad durante el uso de ChatGPT y otras tecnologías similares.

El CEO de OpenAI indicó que intentará cumplir con los estándares europeos que se aprueben en la medida de lo posible, pero si no se consigue, tendría que dejar de operar en esa región. Posteriormente aseguró que su compañía no tiene planes de dejar de funcionar en este continente.

Guardar