Redaktion
Berlin (Weltexpresso) - Durch die Digitalisierung nehmen die Mög- lichkeiten der Überwachung mit Hilfe von Mobiltelefonen, Apps oder Software rasant zu - sichtbar und weniger sichtbar. In totali- tären Ländern werden diese Möglichkeiten vom Staat ganz gezielt eingesetzt. Welche Formen der Datenüberwachung gibt es in Europa und wo werden sie genutzt?
Auch in Europa setzen Staaten und Unterneh- men im großen Stil auf datenbasierte Überwa- chung. Der Klassiker ist die Überwachung durch Geheimdienste und Polizei, zum Bei- spiel die massenhafte Vorratsdatenspeiche- rung von Kommunikations- und Fluggastdaten in der EU. Beides ist in der aktuellen Form ille- gal, sagt der Europäische Gerichtshof, doch die Gesetze sind noch in Kraft. Dann gibt es gezielte Überwachung von Einzelpersonen mit Staatstrojanern, die in Deutschland stark zunimmt. Außerdem biometrische Überwa- chung, zum Beispiel Videoüberwachung mit Gesichtserkennung im öffentlichen Raum. Innenminister:innen wollen das in Deutschland seit Jahren ausbauen. In den USA weit verbrei- tet und in Deutschland auf dem Vormarsch ist Big Data in der Polizeiarbeit, sogenanntes Pre- dictive Policing. Hier werden ganze Nachbar- schaften oder sogar Einzelpersonen aufgrund ihrer Datenprofile als gefährlich markiert und daraufhin genauer unter die Lupe genommen. Besonders betroffen sind marginalisierte Grup- pen, Geflüchtete müssen zum Beispiel ihr gesamtes Handy durchleuchten lassen.
Wo werden diese Technologien im kommerziellen Bereich eingesetzt?
Hier muss man als erstes natürlich das Datensammeln für Werbung nennen, Targeted Advertising, also das gezielte Zuschneiden von kommerzieller Werbung, aber auch von politischen Botschaften auf das Profil der Nutzer:in. Eine ganze Industrie arbeitet mittlerweile daran, Menschen auf Basis ihrer Datenspuren in Kategorien einzuordnen und zu berechnen, was sie wert sind. Data Broker machen nichts anderes als Daten aus unter- schiedlichsten Quellen in individuellen Profilen zusammenzuführen und diese dann weiter zu verkaufen. Das kann Auswirkung darauf haben, wie lange ich in der Warteschleife warten muss oder ob ich irgendwelche Vorteile im Bonusprogramm erhalte. Aber auch Gesundheitsrisiken, Kreditwürdigkeit oder die Eignung für einen Job sollen mit Big Data und sogenannter Künstlicher Intelligenz errechnet werden.
Da gibt es erstaunliche Parallelen zu dem Social Scoring System in China. Auch die Öffentliche Hand setzt in Europa auf solche Analysen. In Österreich entscheidet zum Beispiel das Datenprofil von Arbeitssuchenden, ob sie Qualifizierungsmaßnahmen erhalten. Die Niederlande haben lange Zeit mit solchen Systemen nach Sozialbetrüger:innen gesucht und über Kindergeldanträge entschieden. Das war ein heftiger Skandal, weil die Datenanalysen nach rassistischen Kriterien gearbeitet haben, etwa eine doppelte Staatsbürgerschaft als Problemfaktor klassifizierten.
Welche Gefahren entstehen dadurch für Demokratie, Menschenrechte und persönliche Freiheit?
Da sind zum einen Probleme mit datenbasierter Diskriminierung, wenn solche Systeme bestimmte Gruppen wie etwa Frauen oder Menschen mit Migrationshintergrund schlechter behandeln. Dann haben wir da die Manipulierbarkeit von Menschen mit Daten. Wissen ist Macht und die Datenmacht ist heute sehr ungleich verteilt: Unternehmen und staatliche Stellen wissen viel über uns und können uns damit beeinflussen. Zusätzlich gibt es Sicherheitsrisiken, weil große Datensammlungen immer auch für Kriminelle interessant sind. Und es gibt die Sorge vor „Chilling Effects“ durch Überwachung. Menschen ändern ihr Verhalten, wenn sie wissen, dass sie beobachtet werden. Wenn man nicht weiß, ob man gerade überwacht wird, traut man sich womöglich nicht mehr, frei zu kommunizieren, sich zu informieren oder die eigene Religion auszuüben. Das schränkt die Grundrechte und die freie Persön- lichkeitsentfaltung von allen ein. Diese Logik steht auch hinter den Social Scoring Systemen wie in China: Das Verhalten soll normiert und gesteuert werden. Das Bundesverfassungsgericht hat deshalb gesagt, dass wir als Gesellschaft nicht in eine Situation kommen dürfen, in der die Bürger:innen nicht mehr nachvollziehen können, wer was über sie weiß und wie diese Informationen verwendet werden.
Auf der anderen Seite ist der Umgang mit Daten beispielsweise in Sozialen Medien oft sehr leichtfertig.
Die digitale Gesellschaft funktioniert natürlich nicht ohne Daten. Aber nicht jede Datennutzung ist problematisch, darin stecken auch viele Chancen. Der Punkt ist: Was die Leute in Sozialen Medien preisgeben, können sie mehr oder weniger selbst entscheiden. Das ist eine andere Dimension als das versteckte Sammeln von Daten. Vielen Menschen ist nicht bewusst, wo sie überall überwacht werden. Kann es auch gar nicht sein: Konzerne gestalten Online- Umgebungen, Websites, Soziale Medien, Apps und so weiter so, dass die Autonomie der Nutzer:innen bewusst ausgehebelt wird. Zum Beispiel mit „Dark Patterns“, also Designmustern, die viele von Cookie-Bannern kennen. Man gibt zwar auf dem Papier eine Einwilligung, aber das Ganze ist so unübersichtlich gestaltet ist, dass von informierter und freiwilliger Einwilligung nicht die Rede sein kann.
Vor welchen Herausforderungen stehen wir als Gesellschaft?
Wir haben mit der Datenschutzgrundverordnung eigentlich eine gute Grundlage, die weltweit Vorbild ist und mit der die Europäische Union Standards setzen konnte. Aber das reicht offenbar nicht, um die Auswüchse des Überwachungskapitalismus einzudämmen. Wir haben ein großes Nadelöhr bei der Durchsetzung. Die Datenschutzbehörden sind immer noch zu langsam und nicht gut genug ausgestattet. Außerdem brauchen wir eine Debatte um die Einwilligung: Wenn man sich die einmal holt, gilt das heute als Freifahrtschein. Das führt dazu, dass Anbieter mit Dark Patterns tricksen und die Nutzer:innen permanent überfordert sind, weil niemand seine kompletten Datenspuren im Blick behalten kann. Eigentlich müssten wir als Gesellschaft gemeinsam festlegen, welche Datenverarbeitungen wir wünschenswert finden und welche nicht. Außerdem brauchen wir ein Bildungssystem, von dem Junge und Alte selbst lernen, wie sie sich schützen und was sie im Sinne von Citizen Science Produktives mit Daten machen können.
Was sagen Sie zu Leuten, die meinen, „Ich habe nichts zu verbergen, mir ist Datenschutz egal“? Welche Auswirkungen kann Datenmissbrauch auch für sie haben?
Zum einen geht es um Solidarität. Mit Menschen, die bei Amazon im Lager arbeiten und mit Videoüberwachung engmaschig kontrolliert werden. Mit Menschen, die auf einer Liste verdächtiger Personen gelandet sind, weil sie die falsche Hautfarbe, den falschen Beruf oder den falschen Nachnamen haben. Mit Menschen, die wegen ihres Datenprofils keinen Kredit oder keine Wohnung bekommen. Zum anderen werden die Konsequenzen irgend- wann für alle spürbar sein, wenn Überwa- chungskapitalismus und staatliche Überwachung weiter ausgebaut werden. Wollen wir wirklich in einer Gesellschaft leben, in der wir uns permanent Gedanken darum machen müssen, welche Konsequenz unser Verhalten für unserer Datenprofile hat? Es kann dann sehr schnell gehen, dass eine bestimmte Ernährung, ein bestimmter Wohnort oder auch nur die kleinste Geschwindigkeitsüber- schreitung im Straßenverkehr sich negativ auf unsere Lebenschancen auswirken.
Habe ich als Einzelne:r überhaupt einen Einfluss darauf oder muss das auf politi- scher Ebene, auf gesellschaftlichen Druck hin entschieden werden?
Man kann zum Beispiel darauf achten, welche Dienste man nutzt. Nutze ich vielleicht Messenger, die nicht auf einem datenbasierten Geschäftsmodell funktionieren oder Alternativen zu Google als Suchmaschine? Aber wir müssen auch feststellen: Wir haben ein Problem mit der Marktmacht einzelner Akteur:innen, mit datenkapitalistischen Geschäftsmodellen, an denen man kaum vorbeikommt. Im Social Media-Markt kann man nur entscheiden zwischen dabei sein oder ganz draußen. Du kannst nicht mit einem Datenkonzern aus den USA verhandeln. Das heißt, wir dürfen das Problem nicht auf individuelle Lösungsansätze verengen, wir haben hier ein gesellschaftliches Problem und das müssen wir auch kollektiv lösen. Wir brauchen vernünftige Daten- schutzgesetze und eine Durchsetzung, die den Namen verträgt.
Zum Abschluss: Wo kann man sich infor- mieren, wie man sich als Einzelne:r so gut wie möglich schützen kann?
Zum Einstieg empfehle ich drei Seiten: www. mobilsicher.de für praktische Tipps, www. algorithmwatch.org für den politischen Kon- text und natürlich www.netzpolitik.org für den Gesamtblick. Wir haben dort auch ein kleines 1x1 der digitalen Selbstverteidigung.
Ingo Dachwitz ist Datenschutzexperten und Redakteur bei netzpolitik.org. Er arbeitete auch an dem Projekt „Your Data Mirror“ der Interactive Media Foundation mit, das Mecha- nismen datenbasierter Überwachung in der Online-Welt aufzeigt. Das Interview führte Dr. Kathrin Steinbren.