Estos días se celebra la conferencia para desarrolladores de Apple, y durante la charla inaugural de esa WWDC 2016 hubo un apartado específico reservado a un tema del que Apple se siente especialmente orgullosa: la protección de la privacidad.
Al hablar de sus nuevos esfuerzos en este ámbito, en Apple mencionaron el uso de una disciplina de la que pocos habíamos oído hablar: se trata de la "privacidad diferencial", un sistema estadístico que permite recolectar datos y analizarlos sin que ello comprometa la identidad y privacidad de quienes los proporcionan consciente o inconscientemente. ¿Sabéis quién creó el concepto? Microsoft, entre otras.
Recolectar datos sin violar la privacidad es (matemáticamente) posible
La privacidad diferencial es desde luego un concepto singular, sobre todo ahora que todas las grandes empresas basan buena parte de su actividad en estudiar nuestra actividad. Google, Facebook, Microsoft o Amazon no paran de recolectar nuestros datos para luego reutilizarlos en sus motores de inteligencia artificial, o sus sistemas publicitarios, o la forma en la que nos recomiendan productos y contenidos.
Todas esas empresas juran y perjuran que nuestros datos están a salvo con ellos, que tienen la privacidad por bandera y que ese tipo de recolección va "vestida" con una capa que permite "anonimizar" esos datos para proteger las identidades de los usuarios. Pues bien, la "privacidad diferencial" es en realidad una disciplina que precisamente trata de lograr ese mismo objetivo de forma específica. La recolección de datos no es el objetivo final: lo es el recolectarlos sin que la identidad de los que los propocionan quede revelada.
Para ello se aprovechan técnicas como el hashing de los datos (que los cifra), el subsampling -que solo toma parte de esos datos- y la inyección de ruido, que hace que a los datos reales se les añadan otros aleatorios que ocultan y "encapotan" los datos sensibles o personales.
Microsoft ayudó a crear el concepto, Google lo usa en Chrome
Aunque Apple ha sido la que ha puesto de moda el término gracias al impacto mediático que causa cualquiera de sus novedades en el mercado, el concepto de privacidad diferencial tiene su origen en un estudio realizado por Microsoft Research, la división de investigación y desarrollo de la empresa de Redmond.
En 2006 Cynthia Dwork, Frank McSherry, Kobbi Nissim y Adam Smith publicaron el estudio "Calibrating Noise to Sensitivity in Private Data Analysis" (aquí en PDF) como un esfuerzo para continuar "la línea de investigación iniciada en bases de datos estadísticas en las que se preserva la privacidad".
Ese documento está plagado de fórmulas matemáticas en las que analiza la sensibilidad y privacidad de los datos para aplicar esa "ofuscación" de los mismos durante el análisis estadístico de aquello que es útil para la empresa que aprovecha esta aproximación. Algunos expertos como Moritz Hardt ya indicaron que aunque la idea es especialmente interesante, su aplicación práctica podría ser compleja.
Este investigador de Google está especializado en aprendizaje automático y en su segundo análisis sobre el tema el año paso dejaba claro que "la privacidad diferencial es una forma rigurosa de hacer aprendizaje automático, no de prevenir que se esta técnica se utilice". Y es precisamente en ese ámbito en el que esta técnica puede tener sentido, aunque hay otros en las que también puede ser muy relevante.
Lo demuestra Google, que hace tiempo lanzó el proyecto Open Source -el código está disponible en GitHub- llamado RAPPOR (Randomized Aggregatable Privacy-Preserving Ordinal Response). Como explicaban los propios ingenieros de Google en su blog sobre seguridad, este sistema "permite conocer estadísticas sobre el comportamiento del software de los usuarios mientras se mantiene la privacidad del cliente".
El proyecto ha formado parte de las versiones de desarrollo de Chrome y de hecho era posible configurar su uso en las preferencias del navegador, pero en las últimas versiones esa opción ha desaparecido aunque Google deja claro en su whitepaper sobre privacidad que la protección con la función Navegación Segura de Chrome hace uso de la privacidad diferencial.
¿Es la privacidad diferencial la solución a todos nuestros problemas? Bueno, desde luego parece ser una buena alternativa para tratar de proteger esos datos que constantemente estamos cediendo a las empresas que se nutren de ellos.
Algunos critican el alcance de esta solución -veremos cómo la implementa Apple- pero la respuesta de Adam Smith, uno de los creadores del concepto, a esos argumentos era clara: "no presentaría la privacidad diferencial como la cura a todas las enfermedades de los datos de este mundo [...] pero me estoy seguro de que actualmente no hay ninguna forma rigurosa de pensar en la privacidad de los datos estadísticos que ofrezca una buena alternativa a la privacidad diferencial".
En Xataka | Backdoors, seguridad y privacidad: ¿existe el equilibrio perfecto? Los expertos opinan
Ver todos los comentarios en https://www.xataka.com.co
VER 0 Comentario