Luego de haber bloqueado su acceso en Italia por verse envuelto en una polémica respecto a los potenciales riesgos a la privacidad de las personas, la inteligencia artificial y la empresa que la desarrolla, OpenAI, serán investigadas por el gobierno de Canadá por presuntamente haber recogido información personal sin el consentimiento de los usuarios.
Philippe Dufresne, titular de la Oficina del Comisionado de Privacidad de Canadá indicó que las acciones de ChatGPT no solo se limitan a la recopilación de información, sino que esta habría sido utilizada e incluso divulgada. La investigación sobre el software y la compañía de Sam Altman, OpenAI, aún se encuentra en curso, por lo que no se conocen más datos sobre el método que era usado para recopilar los datos y el tipo de información que se habría difundido.
Según Dufresne, el uso que se le da a la inteligencia artificial y cuáles son sus posibles efectos (o daños) a la privacidad de los ciudadanos es una de sus prioridades, además de anticiparse a los avances que hagan compañías que desarrollan este tipo de softwares.
Es por ello que, al igual que se hizo en Italia, se espera que el gobierno de Canadá también aplique una suspensión temporal del servicio hasta que se generen una base legal para el uso de este tipo de herramientas y el manejo de los datos de cada usuario en ellas.
Por el momento, Sam Altman ya indicó que acatará la medida establecida en Italia sobre la disponibilidad de ChatGPT y es posible que también se produzca el mismo efecto en Canadá, aunque esto no impediría a los usuarios que quieran acceder a sus servicios hacerlo por medio de un VPN para cambiar la ubicación de su computador o celular por la de otro país que sí lo permita.
Avanza la regulación de la inteligencia artificial
Los intentos de los gobiernos de Canadá e Italia por responder al avance de la tecnología de inteligencia artificial no son los únicos ni los primeros que pretenden hacer frente a un escenario en el que este tipo de softwares avanzan cada vez más rápido.
La Unión Europea también está intentando proteger a sus países miembros por medio de una legislación en la que se considera como parte de los criterios para “dar permiso” de operar a una inteligencia artificial el posible impacto negativo que esta tendría potencialmente entre los habitantes de diversos países.
Este intento de regulación, existente desde el año 2021 tiene cuatro categorías en las que se pueden calificar a las inteligencias artificiales como de riesgo mínimo, riesgo limitado, riesgo alto y riesgo inaceptable. El objetivo es que todas tengan un conjunto de reglas y estándares mínimos de seguridad que tendrán que cumplir para “evitar resultados no deseados” pese a que también se reconoce que la mayoría de estos sistemas no presentan demasiados riesgos.
Según la Comisión Europea, se tendrán que analizar los riesgos y luego solicitar a los desarrolladores la creación de medidas que disminuyan la cantidad de potenciales efectos negativos antes de registrarse adecuadamente.
En el caso de que estos softwares desarrollen nuevas capacidades o funciones, los gobiernos volverán a situar la inteligencia artificial como en proceso de obtención de permisos hasta que se vuelva a analizar los riesgos de implementar estos cambios y se ofrezcan posibles soluciones a los inconvenientes presentados por la Comisión Europea.