Los datos que coge ChatGPT sobre ti cuando lo utilizas, según una criminóloga: “Son guardados para usos futuros que desconocemos”

Estos sistemas están calificados por la UE como de “riesgo limitado”, por lo que están sujetos a obligaciones de transparencia

Una imagen de archivo de un teléfono con el logotipo de Chat GPT. (EFE/EPA/ETIENNE LAURENT)

La inteligencia artificial es una revolución que parece no conocer límites. Desde hace años, esta tecnología está presente en ámbitos como la medicina, Defensa, finanzas o en comunicaciones, entre otros muchos.

Pero al igual que ha aportado avances extraordinarios, el rápido crecimiento de esta tecnología también plantea ciertos riesgos que se han convertido en un auténtico quebradero de cabeza a la hora de regularlos. Gran parte de ellos tienen que ver con la recopilación masiva de datos que almacenan para “aprender” constantemente.

Es el caso de modelos de inteligencia artificial de uso general como Chatgpt, probablemente la inteligencia artificial más famosa del mundo. Este programa se basa en dos principios. Primero, en el ‘preentrenamiento’, a través del cual analiza una enorme cantidad de texto para entender cómo se usa el lenguaje, prediciendo palabras según el contexto. Luego, está lo que se conoce como el ajuste fino, donde se le enseña a responder de manera más útil y específica, usando ejemplos y correcciones humanas.

Read more!

Cómo blindar nuestros datos

La criminóloga María Aperador, conocida en las redes como @mariaperadorcriminologa, advierte que incluso este tipo de aplicaciones con las que podemos conversar amigablemente pueden convertirse en un arma de doble filo a la hora de proteger nuestros datos.

Aperador explica Chatgpt no solo va actualizando la información que recoge de Internet, sino que también “utiliza tus propias conversaciones para entrenar modelos futuros”. “Esto significa que todos los chats que utilizamos, en los que compartimos información personal, como datos fiscales, información personal, problemas médicos o psicológicos, son guardados en sus bases de datos para usos futuros que desconocemos”, detalla la criminóloga.

Matemáticos, físicos y expertos en inteligencia artificial y digitalización se convierten en objeto de deseo de los bancos.

Para evitar esto, Aperador apunta que es posible configurar Chatgpt para que no almacene nuestras conversaciones. Para ello, primero debes entrar en Chatgpt y dirigirte a la opción de Ajustes. A continuación, busca la opción de privacidad o Data Controls y luego dale a la opción que dice Guardar historial de chats y desliza el interruptor para desactivarla. “Ahora tus chats ya no van a ser utilizados para entrenar modelos futuros y se van a eliminar cada 30 días”, subraya la criminóloga.

No todas las IA están permitidas

La Unión Europea establece cuatro niveles a la hora de evaluar el riesgo de un sistema de inteligencia artificial. Por ejemplo, los juegos o los filtros de ‘correo no deseado’ basados en la IA no presentan riesgos para los ciudadanos y por tanto, no están sujetos a regulaciones por la legislación europea. En el caso de los chatbots como Ghatgpt están calificados de “riesgo limitado”, el segundo nivbel, y en estos casos están sujetos a obligaciones de transparencia al tratar con datos personales.

Dentro de los permitidos, existen también los sistemas de IA calificados de “alto riesgo”, que pueden utilizarse en tecnologías muy útiles como el diagnóstico de enfermedades, la conducción autónoma o sistemas biométricos de personas implicadas en actividades delictivas u objeto de investigaciones penales. El Consejo Europeo explica en su página web que en estos casos están sujetos a controles de transparencia y supervisión humana muy estrictos para acceder al mercado de la UE.

Por otro lado, hay determinados sistemas que están totalmente prohibidos en la UE como, por ejemplo, el uso de sistemas de identificación biométrica remota en tiempo real o el reconocimiento facial en espacios públicos por parte de las autoridades encargadas del cumplimiento de la ley, salvo en casos excepcionales.

Además, según la normativa, prácticas como la puntuación ciudadana, el reconocimiento de emociones en lugares de trabajo o centros educativos, la actuación policial predictiva y la manipulación cognitiva conductual también están vetadas.

Inteligencia Artificial para proteger los tanques del Ejército: diseñan un innovador visor 360º para el ‘8x8 Dragón’.

Read more!