En el marco del Día Internacional de Protección de Datos, Google anunció mejoras las tecnologías para preservar la privacidad. En este sentido dieron a conocer un nuevo producto de código abierto enfocado en desarrolladores de Python, actualizaciones en su sistema de aprendizaje automático y una nueva forma de aplicar la privacidad diferencial en Google Play.
La privacidad diferencial permite obtener conocimientos de grandes conjuntos de datos, pero evitando que se obtenga información de usuarios en particular de ese grupo. Esta tecnología permite conocer las características salientes del grupo cuidando la privacidad de cada uno de los usuarios.
“La privacidad diferencial es una ecuación básicamente que trata de limitar la cantidad de información que escapa cada vez que se hace una operación”, resumió Miguel Guevara, gerente de producto de la Oficina de Privacidad y Protección de Datos de Google, en el marco de una entrevista con Infobae. Y añadió: “Nació en las bases de datos pero tiene muchísimas aplicaciones en el campo de machine learning o para recolectar datos”.
Google Play
Google Play comenzará a compartir nuevas métricas con los desarrolladores utilizando la privacidad diferencial que proporcionará nuevos conocimientos sobre cómo se utiliza su aplicación, sin permitir que los datos de ninguna persona se distingan o se vuelvan a identificar.
De esta manera se garantiza que los desarrolladores puedan tener acceso a datos valiosos que les permitan mejorar sus apps pero siempre cuidando la privacidad de los usuarios.
“Si bien la versión inicial de estas métricas fue posible utilizando parámetros similares a los que usamos anteriormente, planeamos ampliar la cantidad de métricas que proporcionamos a los desarrolladores. Estas expansiones pueden requerir parámetros más flexibles para adaptarse a la mayor cantidad de métricas”, informó Google en su comunicado oficial.
La tecnología se pone a disposición de desarrolladores externos
Google se asoció con OpenMined, un grupo de desarrolladores de código abierto que se enfoca en tomar tecnologías que preservan la privacidad y expanden su uso en todo el mundo. Junto con OpenMined, se busca construir un sistema de procesamiento de datos dirigido a desarrolladores de Python.
“Una de la cosas que estamos haciendo es ofrecer a OpenMined, que es un grupo de desarrolladores esparcidos por todo el mundo, acceso a los algoritmos, códigos, diagramas y a todo lo que hemos hecho para que ellos construyan nuevas herramientas encima de lo que nosotros ya hemos construido”, detalla Guevara.
A su vez, explicó que hay varias startups que ya están usando la infraestructura que Google puso a disposición en código abierto. Una de ellas es una francesa que se dedica a temas de salud. En ese sentido, el especialista anticipó que en el futuro la privacidad diferencial podría ayudar muchísimo en este campo, ya que permitiría, por ejemplo, que hospitales de todo el mundo pudieran compartir información o estudios sobre, por ejemplo, posibles medicamentos o tratamientos efectivos para la cura del cáncer sin comprometer los datos de los pacientes. “Se podrían hacer experimentos en tiempo real que sean estadísticamente sólidos”, analiza.
Mejoras en el modelo de aprendizaje automático
En lo que se refiere al aprendizaje automático o machine learning, la compañía ha estado trabajando en la posibilidad de acelerar el proceso de entrenamiento de los modelos que emplean privacidad diferencial. En este punto hay que aclarar que suele ser complicado entrenar los modelos de aprendizaje automático con privacidad diferencial porque toma mucho más tiempo y además esos modelos no son tan eficaces. De ahí que la compañía se haya centrado en este último año en optimizar el entrenamiento de este sistema.
“Hace dos años, presentamos TensorFlow Privacy (GitHub), una biblioteca de código abierto que facilita no solo a los desarrolladores la formación de modelos de aprendizaje automático con privacidad, sino también a los investigadores para avanzar en el estado del arte en aprendizaje automático con una privacidad sólida. Gracias a una colaboración con investigadores de la Universidad de Waterloo, mejoramos la privacidad de TensorFlow”, se lee en el comunicado difundido por la empresa.
A su vez, en el caso de los desarrolladores que no utilicen modelos con privacidad diferencial, es importante que puedan saber cuán privado es un modelo. Para eso, la empresa creó una suite de ataques para testear esos modelos para que así los desarrolladores puedan saber si los sistemas son vulnerables o no a diferentes situaciones.
“Hemos colaborado con la Universidad de Princeton y la Universidad de Singapur para construir esta librería que también es de código abierto y cualquier desarrollador puede usar. La idea es que la gente alrededor del mundo que esté construyendo modelos y se esté preguntando: ‘¿Qué tan privado es mi modelo?’, pueda usar la librería. Al usarla, van a recibir un puntaje y ese número les va a decir que tan privado o no es el modelo”, concluye Guevara.
MÁS SOBRE ESTE TEMA: