El desaprendizaje de modelos de entrenamiento favorece la fuga de información confidencial, según expertos

Guardar

Los algoritmos de desaprendizaje pueden favorecer la fuga de información condifencial y privada de los usuarios, a pesar de que se busca eliminarlos de estos modelos de 'machine learning' precisamente para proteger los datos personales de los usuarios. Esta es una de las conclusiones a las que ha llegado un grupo de investigadores y expertos de diferentes instituciones, como las Universidades de Washington, Princeton, Chicago, Southern California y Google Research. Los resultados del estudio se recogen en MUSE: Machine Learning Six-Way Evaluation for Language Models, y explica cómo afecta el desaprendizaje automático a los modelos de 'machine learning'. En primer lugar, los analistas han recordado que los modelos de lenguaje se entrenan con grandes cantidades de texto, que pueden incluir contenido privado y con derechos de autor. Esto ha llevado a autores, editores y sellos discrográficos a presentar demandas para forzar un cambio en la manera en que se recopila la información, ya que consideran que estos modelos perjudican sus obras con 'copyright'. A su vez, ejercen derechos contemplados en el Reglamento General de Protección de Datos (RGPD) europeo, entre otras normativas. Debido a este problema, se han vuelto populares las denominadas técnicas de desaprendizaje, esto es, hacer que estas empresas y desarrolladores de herramientas de IA borren de sus registros todos aquellos datos confidenciales o 'tokens' de los usuarios que no deberían alojar. Tras realizar el estudio, los expertos han comentado que desaprender exactamente esos datos privados -y no hacer lo mismo con los públicos o de libre uso- "es intratable en los modelos actuales", motivo por el que se han desarrollado muchos algoritmos de desaprendizaje aproximados". En este sentido, han recordado que "la evaluación de la eficacia de estos algoritmos ha sido tradicionalmente de alcance limitado" y que no es posible cuantificar con precisión su éxito y practicidad "desde las perspectivas tanto de los implementadores del modelo cono de los propietarios de los datos". Para determinar la eficacia que tienen estos algoritmos de desaprendizaje, los investigadores han estudiado el comportamiento de ocho de ellos a fin de saber cómo pueden eliminar los datos de entrenamiento textual y todo aquello que evidencie que el modelo se entrenó con ellos. Para ello, han establecido un punto de referencia integral llamado MUSE, que prueba estos algoritmos en función de seis criterios, que se consideran propiedades "deseables" para un modelo que ha experimentado el desaprendizaje. El primero de ellos indica que estos modelos no deben memorizar "palabra por palabra", esto es, que no debe recordar frases u oraciones construidas, exactas. Este tampoco debe memorizar ni retener conocimientos derivados de los datos específicos ni tampoco filtrar ninguna información privada. Sometido a este proceso de borrado, el modelo debería atenerse al principio de preservación y seguir funcionando bien con otros datos que no estén destinados a ser eliminados. Asimismo, se debe plantear la escalabilidad, es decir, gestionar solicitudes grandes y múltiples de eliminación de datos de forma eficiente; y también peticiones sucesivas de desaprendizaje, sin deteriorar el rendimiento, esto es, ser sostenible. Durante la evaluación de estos ocho algoritmos de desaprendizaje. los analistas descubrieron que la mayoría "eliminan la memorización palabra por palabra y la memorización de conocimiento con diferentes grados de eficacia, pero operan a costa de la preservación de la utilidad y no previenen eficazmente la fuga de privacidad". "Nuestros resultados destacan que los algoritmos de desaprendizaje generalmente no cumplen con las expectativas de los propietarios de los datos en lo que respecta a la prevención de fugas de información privada, que es una de las principales motivaciones para el desaprendizaje", han señalado. A pesar de que reconocen que "cada vez es más deseable encontrar un algoritmo de desaprendizaje eficiente y eficaz" debido a las preocupaciones en torno a las regulaciones de privacidad y la preservación de los derechos de autor, su evaluación sugiere que "los métodos de desaprendizaje actualmente factibles aún no están listos para un uso significativo o implementación en escenarios del mundo real". Asimismo, han observado que los métodos actuales de desaprendizaje evitan con éxito la memorización de contenido por parte del modelo, "con un coste significativo para la utilidad de los datos que no están destinados a ser utilizados". Esto hace que los firmantes de este estudio consideren que es "una necesidad apremiante" realizar más investigaciones en este área, para lo que ha contribuido facilitando su punto de referencia a otros expertos.

Guardar