Desde hace bastante tiempo, sigo las evoluciones del think tank de The Future of Privacy, más que nada, para no quedarme desubicado cuando lleguen los nuevos ataques a nuestra privacidad.

En este post, se resumen las intervenciones de miembros de importantes empresas e instituciones académicas, en presencia de nada menos que un Consejero de la Casa Blanca, Sr. John Podesta.

Asombra ver cómo de distintas son las visiones sobre este asunto (el de la privacidad) al otro lado del charco. Para quien no tenga tiempo (o ganas) de leerse el mencionado post, aquí va un breve resumen, con algunas reflexiones personales.

La visión de Microsoft

Doña Cynthia Dwork, de Microsoft Research, introduce el concepto de la privacidad diferencial, según la cual, el resultado de un análisis de los datos personales contenidos en una base de datos no es significativamente distinto si el interesado (cuyos datos se analizan) retira/quita por lo menos una información que le afecta. Eso nos llevaría a la idílica situación en la cual las empresas (y los Gobienos) pueden analizar nuestros perfiles, sin afectar a nuestra privacidad. De hecho, según la autora, la inmensa mayoría de datos que diseminamos por ahí es «blatantly non-private«, es decir, «descaradamente no privados».

La fórmula mágica de la privacidad diferencial es la siguiente:

Pr[K(D1)∈S]≤exp()×Pr[K(D2)∈S

En cristiano (es un decir), una función aleatoria K nos proporciona «» como privacidad diferencial si los datos de la base de datos D1 y D2 son idénticas, pero difieren por lo menos en un elemento (el que ha quitado el interesado). Por lo tanto, el conjunto de datos «S» es ⊆Range(K) no afecta a nuestra esfera personal. El estudio completo aquí.

Mola, ¿verdad?

Algunos ejemplos prácticos

Para entender plenamente el alcance de este modelo, el mismo post nos ofrece algunos ejemplos significativos.

D. John Guttag, del MIT, nos habla de la importancia del Big Data en el ámbito de la salud. Nos asegura que se pueden alcanzar grandes avances médicos, a través del análisis de las historias clínicas. De hecho, este señor se da cuenta que existen muchas posibilidades de estudio con datos que fueron recigidos para unos fines (curar un enfermo) y que también pueden ser utilizados para ensayos clínicos (sin que el paciente lo sepa). Transcribo textualmente sus palabras: «‘We find a lot of data for one purpose that can be used for another. It’s important not to be too specific.»

Olé tus… Después del post sobre las deposiciones de los perros, me había prometido a mi mismo ser menos vulgar, pero es difícil contenerse frente a tales afirmaciones.

Sr. Guttag, en Europa tenemos el principio de calidad de los datos (art. 4 LOPD), donde se dice claramente que las finalidades para las que se usan los datos personales deben ser «determinadas, explícitas y legítimas«. Y no cuela que Usted quiera esgrimir la exención prevista en el art. 4.2 LOPD (tratamiento para fines científicos), cuando tenemos que respetar las restricciones para el tratamiento de datos de salud, previstas en el art. 7.6 LOPD.

Lo que Usted no quiere quitar del análisis son los datos que identifican a la persona. Si no, por qué soltaría la  cruel oposición del derecho a la privacidad con el miedo a la muerte («I think most people fear death or the death of a loved one more than a loss of privacy«). No mezcle Usted churras con merinas.

Otro ejemplo. D. Sam Madden dice que se pueden evitar muchos accidentes de tráfico, si analizamos el comportamiento de los conductores. Es decir, nos ponen un chip en la cabeza (no en el coche), así corrigen nuestros malos hábitos al volante. De ahí al Gran Hermano (el de Orwell) no hay ni un paso. Y todo porque «it’s societally compelling«. ¡Venga ya!

Conclusiones

Debajo de estas fórmulas matemáticas, sólo se esconde la necesidad imperiosa de hacer dinero a cuesta de nuestra privacidad, la llamen diferencial o no.