Die Studie zeigt einmal mehr, was wir lange wissen. Solange Daten über Einzelpersonen nicht sehr grob zusammengefasst/aggregiert werden, kann wohl keine Anonymisierung der Welt mit 100% Sicherheit verhindern, dass Personen reidentifiziert werden können.
Was gute Anonymisierung kann, ist zB den für eine Reidentifzierung notwendigen Aufwand stark erhöhen, die Wahrscheinlichkeit dafür senken oder deren Zuverlässigkeit unterminieren.
Aber Frage, über welche praktischen Szenarien ungewollter Reidentifizierung sprechen wir überhaupt?
Wenn ich zu 100% verhindern möchte, dass mich jemand unter Einsatz aller verfügbaren Daten und technischen Mittel als Einzelperson reidentifizieren kann, wirds schwierig.
Individualisierte "digitale Selbstverteidigung" oder rein technischer Datenschutz helfen nur sehr begrenzt.
Wenn es allerdings zB um die systematische Massen-Reidentifikation für kommerzielle Zwecke geht, sehe ich schon Ansatzpunkte.
Die DSGVO ist keine schlechte Ausgangsbasis dafür, unsere Rechte und Freiheiten *auch dann* zu schützen, wenn bereits Daten über uns verarbeitet werden.
Aber die DSGVO gilt doch nur für personenbezogene Daten und nicht für "anonymisierte" Daten?
Und was heisst das alles mittelfristig für die Zukunft von Datenschutzgesetzgebung und Anonymisierung?
(1) Es läuft wohl darauf hinaus, in Hinkunft den Blick noch mehr auf den Zeitpunkt zu richten, zu dem vermeintlich anonymisierte Daten wieder klar auf Personen angewandt werden - etwa um ihnen Eigenschaften zuzuschreiben, sie auszusondern oder Entscheidungen über sie zu treffen.
(2) Dazu muss aber die Unterscheidung zwischen personenbezogenen und nicht-personenbezogenen Daten aufrecht erhalten werden, denn diese Unterscheidung ist die Basis für die DSGVO und für jegliche Datenschutzgesetzgebung europäischer Prägung.
Diese Unterscheidung wird durch den Zugriff auf umfassende Datenbestände sowie durch die Verknüpfung unterschiedlicher Datenquellen - in Kombination mit fortgeschrittenen Analysemethoden - unterminiert. Siehe zB nissenbaum.tech.cornell.edu/papers/BigData…
Ich bin aber stark dafür, diese Unterscheidung zu "retten".
Mittelfristig müssen wir wohl noch mehr darüber diskutieren, wo wir diese Trennlinie zwischen der Verarbeitung a) personenbezogener und b) bestmöglich anonymisierter Daten ziehen, je nach Anwendung+Kontext.
(3) Dazu brauchen wir aber ergänzende Regeln für bestimmte Arten datenbasierter Anwendungen, die über Datenschutzrecht hinausgehen.
(4) Viertens könnten wir über ein expliziteres Reidentifizierungsverbot nachdenken (auch wenn sich dabei viele heikle Fragen stellen).
Wo sich die Problematik der systematischen Massen-Reidentifizierung natürlich ganz besonders stellt, sind die großen Datenfarmen wie FB und Google, mit ihren extrem umfassenden Datenbeständen.
Aber deren Dominanz und Datenmacht müssen wir sowieso angehen, auch unabhängig davon.
Kurzfristig sind aus meiner Sicht allerdings ganz andere Probleme *prioritär*:
Im Rahmen des kommerziellen Massen-Datenmissbrauchs werden in vielen Bereichen ganz klar personenbezogene Daten verarbeitet, abgeglichen, ausgetauscht und verkauft.
Unternehmen sprechen etwa oft komplett irreführend von "anonymisierten" Daten, wo in Wirklichkeit pseudonymisierte - und damit eindeutig personenbezogene - Daten verarbeitet werden.
Hier muss die DSGVO einfach nur endlich durchgesetzt werden.
• • •
Missing some Tweet in this thread? You can try to
force a refresh
I took another look at Snowden docs that mention browser/cookie IDs.
It's breathtaking how the surveillance marketing industry has still managed to claim for many years that unique personal IDs processed in the web browser are somehow 'anonymous', and sometimes still does.
Another 2011 doc indicates that the GCHQ operated a kind of probabilistic ID graph that aims to link cookie/browser IDs, device IDs, email addresses and other 'target detection identifiers' (TDIs) based on communication, timing and geolocation behavior:
Btw. What inspired me to revisit these docs is @ByronTau's book Means of Control, which not only details how US agencies buy commercial data from digital marketing but also provides deep historical context, tracing back to early-2000s debates on Total Information Awareness (TIA).
Die digitale Werbeindustrie verkauft Smartphone-Standortdaten und Bewegungsprofile von Millionen Menschen in Deutschland, darunter Privatpersonen und sensibles Personal.
Große Recherche von und BR, die einen riesigen Datensatz als "Muster" erhalten haben. netzpolitik.org
Sie haben Menschen identifiziert, die Entzugskliniken, Swinger-Clubs oder Bordelle besucht haben, aber auch Personal von Ministerien, Bundeswehr, BND, Polizei.
Fast alle Smartphone-Apps sind heute mit zwielichtigen Datensammeltechnologien "verwanzt".
Völlig unkontrollierte Datenmarktplätze, u.a. die Firma Datarade mit Sitz in Berlin, bieten Standort- und andere Verhaltensdaten über ganze Bevölkerungen aus vielen Ländern zum Verkauf an.
So, Microsoft exploits activity data from Outlook, Teams, Word etc across customers for its own promotional purposes, including on meetings, file usage and the seconds until emails are read.
Microsoft states that the analysis on the seconds until emails were read excludes EU data. Activity data from Outlook, Teams, Word etc, however, seems to include EU data.
What's their legal basis? This is also personal data on employees. And, are business customers fine with it?
Should cloud-based software vendors exploit personal data on users of their services, including private persons and employees of business customers, how they see fit?
I don't think so.
Not even for public-interest research, at least not without academic process and IRB review.
Some more findings from our investigation of LiveRamp's ID graph system (), which maintains identity records about entire populations in many countries, including name, address, email and phone, and aims to link these records with all kinds of digital IDs:crackedlabs.org/en/identity-su…
Identity data might seem boring, but if a company knows all kinds of identifying info about everyone, from home address to email to device IDs, it is in a powerful position to recognize persons and link profile data scattered across many databases, and this is what LiveRamp does.
LiveRamp aims to provide clients with the ability to recognize a person who left some digital trace in one context as the same person who later left some trace elsewhere.
It has built a sophisticated system to do this, no matter how comprehensive it can recognize the person.
As part of our new report on RTB as a security threat and previously unreported, we reveal 'Patternz', a private mass surveillance system that harvests digital advertising data on behalf of 'national security agencies'.
5 billion user profiles, data from 87 adtech firms. Thread:
'Patternz' in the report by @johnnyryan and me published today:
Patternz is operated by a company based in Israel and/or Singapore. I came across it some time ago, received internal docs. Two docs are available online.
Here's how Patternz can be used to track and profile individuals, their location history, home address, interests, information about 'people nearby', 'co-workers' and even 'family members', according to information available online:
, a 'social risk intelligence platform' that provides digital profiles about named individuals regarding financial strain, food insecurity, housing instability etc for healthcare purposes.
"It calculates risk scores for each risk domain for each person", according to the promotional video, and offers "clarity and granularity for the entire US".
Not redlining, though. They color it green.
Making decisions based on these metrics about individuals and groups seems to be highly questionable and irresponsible bs.