• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • ¿Qué es la privacidad diferencial y cómo puede proteger sus datos?

    Las empresas de tecnología pueden utilizar la privacidad diferencial para recopilar y compartir datos agregados sobre los hábitos de los usuarios, manteniendo la privacidad individual. Crédito:Tim Snell / Flickr, CC BY-ND

    No es ningún secreto que las grandes empresas de tecnología como Facebook, Google, Apple y Amazon se están infiltrando cada vez más en nuestras interacciones personales y sociales para recopilar grandes cantidades de datos sobre nosotros todos los días. Al mismo tiempo, Las violaciones a la privacidad en el ciberespacio aparecen regularmente en las primeras páginas de las noticias.

    Entonces, ¿cómo se debe proteger la privacidad en un mundo donde los datos se recopilan y comparten con mayor velocidad e ingenio?

    La privacidad diferencial es un nuevo modelo de seguridad cibernética que, según los defensores, puede proteger los datos personales mucho mejor que los métodos tradicionales.

    Las matemáticas en las que se basa se desarrollaron hace 10 años, y el método ha sido adoptado por Apple y Google en los últimos años.

    ¿Qué es la privacidad diferencial?

    La privacidad diferencial hace posible que las empresas de tecnología recopilen y compartan información agregada sobre los hábitos de los usuarios, manteniendo la privacidad de los usuarios individuales.

    Por ejemplo, Digamos que desea mostrar las rutas más populares que las personas toman al caminar por un parque. Realizas un seguimiento de las rutas de 100 personas que caminan habitualmente por el parque, y si andan por el sendero o por la hierba.

    Pero en lugar de compartir las personas específicas que toman cada ruta, comparte los datos agregados recopilados a lo largo del tiempo. Las personas que ven sus resultados pueden saber que 60 de cada 100 personas prefieren tomar un atajo a través del césped, pero no qué 60 personas.

    ¿Por qué lo necesitamos?

    Muchos de los gobiernos del mundo tienen políticas estrictas sobre cómo las empresas de tecnología recopilan y comparten los datos de los usuarios. Las empresas que no sigan las reglas pueden enfrentarse a enormes multas. Un tribunal belga ordenó recientemente a Facebook que deje de recopilar datos sobre los hábitos de navegación de los usuarios en sitios web externos. o enfrentarse a multas de 250 €, 000 al día.

    Para muchas empresas, especialmente multinacionales que operan en diferentes jurisdicciones, esto los deja en una posición delicada en lo que respecta a la recopilación y el uso de datos de clientes.

    Por un lado, estas empresas necesitan los datos de los usuarios para poder proporcionar servicios de alta calidad que beneficien a los usuarios, como recomendaciones personalizadas. Por otra parte, pueden enfrentar cargos si recopilan demasiados datos de usuario, o si intentan mover datos de una jurisdicción a otra.

    Las herramientas tradicionales de preservación de la privacidad, como la criptografía, no pueden resolver este dilema, ya que impide que las empresas de tecnología accedan a los datos. Y el anonimato reduce el valor de los datos:un algoritmo no puede brindarle recomendaciones personalizadas si no sabe cuáles son sus hábitos.

    Crédito:Marco Verch / Flickr, CC BY

    ¿Como funciona?

    Continuemos con el ejemplo de rutas a pie por un parque. Si conoce las identidades de los incluidos en el estudio, pero no sabe quién tomó qué ruta, entonces podría suponer que la privacidad está protegida. Pero puede que ese no sea el caso.

    Supongamos que alguien que ve sus datos quiere determinar si Bob prefiere caminar por el césped o por el camino. Han obtenido información de antecedentes sobre las otras 99 personas en el estudio, lo que les dice que 40 personas prefieren caminar por el sendero y 59 prefieren caminar por la hierba. Por lo tanto, pueden deducir que Bob, quién es la persona número 100 en la base de datos, es la 60ª persona que prefiere caminar por la hierba.

    Este tipo de ataque se llama ataque diferenciado, y es bastante difícil defenderse, ya que no se puede controlar la cantidad de conocimientos previos que alguien puede obtener. La privacidad diferencial tiene como objetivo defenderse de este tipo de ataques.

    Es posible que alguien que deduzca su ruta a pie no suene demasiado serio, pero si reemplaza las rutas para caminar con los resultados de la prueba del VIH, entonces puede ver que existe la posibilidad de una grave invasión de la privacidad.

    El modelo de privacidad diferencial garantiza que incluso si alguien tiene información completa sobre 99 de 100 personas en un conjunto de datos, todavía no pueden deducir la información sobre la persona final.

    El mecanismo principal para lograrlo es agregar ruido aleatorio a los datos agregados. En el ejemplo de ruta, puedes decir que la cantidad de personas que prefieren cruzar la hierba es 59 o 61, en lugar del número exacto de 60. El número inexacto puede preservar la privacidad de Bob, pero tendrá muy poco impacto en el patrón:alrededor del 60% de las personas prefieren tomar un atajo.

    El ruido está cuidadosamente diseñado. Cuando Apple empleó privacidad diferencial en iOS 10, agregó ruido a las entradas de los usuarios individuales. Eso significa que puede rastrear por ejemplo, los emojis más utilizados, pero el uso de emoji de cualquier usuario individual está enmascarado.

    Cynthia Dwork, el inventor de la privacidad diferencial, ha propuesto maravillosas pruebas matemáticas sobre cuánto ruido es suficiente para lograr el requisito de privacidad diferencial.

    ¿Cuáles son sus aplicaciones prácticas?

    La privacidad diferencial se puede aplicar a todo, desde sistemas de recomendación hasta servicios basados ​​en la ubicación y redes sociales. Apple utiliza la privacidad diferencial para recopilar información de uso anónima de dispositivos como iPhones, iPads y Mac. El método es fácil de usar, y legalmente en claro.

    La privacidad diferencial también permitiría a una empresa como Amazon acceder a sus preferencias de compra personalizadas mientras oculta información confidencial sobre su lista histórica de compras. Facebook podría usarlo para recopilar datos de comportamiento para publicidad dirigida, sin violar las políticas de privacidad de un país.

    ¿Cómo podría usarse en el futuro?

    Los diferentes países tienen diferentes políticas de privacidad, y los documentos confidenciales actualmente deben comprobarse manualmente antes de trasladarse de un país a otro. Esto requiere mucho tiempo y es caro.

    Recientemente, un equipo de la Universidad de Deakin desarrolló una tecnología de privacidad diferencial para automatizar los procesos de privacidad dentro de las comunidades que comparten la nube en todos los países.

    Proponen utilizar fórmulas matemáticas para modelar las leyes de privacidad de cada país que podrían traducirse a "middleware" (software) para garantizar que los datos se ajusten. Emplear la privacidad diferencial de esta manera podría proteger la privacidad de los usuarios y resolver un dolor de cabeza por compartir datos para las empresas de tecnología.

    Este artículo se publicó originalmente en The Conversation. Lea el artículo original.




    © Ciencia https://es.scienceaq.com