Foto: Gerd Altmann / pixabay.com
Grafik mit Gehirn und Halbleitern

Wie Künstliche Intelligenz unser Leben beeinflusst

„Die können meine Daten ruhig haben, ich habe nichts zu verbergen.“ – Sätze wie diese habe ich schon häufig von Menschen aus sämtlichen Altersklassen und Bildungsniveaus gehört.

09.06.2021

von Wendy Sexton

Mit dem Schutz unserer alltäglichen Daten im Internet hat sich kaum jemand in meinem Umfeld wirklich eingehend auseinandergesetzt. Wie verheerend das sein kann, habe ich im Vortrag von Rainer Mühlhoff an der TU Berlin gelernt.

Es gibt verschiedene Wege, wie die Daten, die wir bei der Benutzung von Online-Diensten hinterlassen, negative Folgen für uns haben können. In dem Vortrag wurde zwischen drei „Angriffstypen“ in Bezug auf Datenschutz unterschieden. Da ist zum einen der klassische Datenklau, bei dem Hacker*innen oder andere Unbefugte Zugriff auf persönliche Daten erhalten.  Ein zweiter, ganz anders gearteter Datenangriff ist die Re-Identifikation. Diese basiert darauf, dass Daten vieler Menschen anonymisiert veröffentlicht werden, um sie statistisch zu nutzen. Trotz der Anonymisierung kann es dazu kommen, dass die Daten einzelner Personen rekonstruiert werden können, sodass persönliche Daten in unbefugte Hände gelangen.

Das aktuellste Problem des Datenschutzes ist laut Mühlhoff jedoch ein drittes Angriffsszenario: die Vorhersage persönlicher Daten anhand von prädiktiver Analytik. Dabei werden zum Beispiel Machine-Learning-Modelle dazu verwendet, die Daten einer großen Zahl an User*innen  zu analysieren, um zum Beispiel persönliche Informationen mit dem Surfverhalten zu verknüpfen. Auf diese Weise können  Verhaltensmuster erkannt und dann dazu verwendet werden, sensible Informationen über einzelne Individuen vorherzusagen, sobald man zum Beispiel Facebook-Likes oder die Browser-History der Person hat.

Ein Beispiel: Person X ist um seine persönlichen Daten bemüht und hat nirgends seine sexuelle Orientierung preisgegeben. Da Person X aber im Internet ähnliche Verhaltensmuster aufweist wie die Personen A, N und Q, die als sexuelle Orientierung heterosexuell angegeben haben, sagt die KI auch für Person X diese sexuelle Orientierung voraus. Diesen Angriff auf unsere Privatsphäre anhand vorhergesagter Informationen bezeichnet Mühlhoff als Verletzung unserer „prädiktiven Privatheit“. Das Gemeine an Privatsphäreverletzungen mittels prädiktiver Analytik ist: Ob man selbst bestimmte persönliche Information angibt oder nicht, spielt keine Rolle. Denn durch statistische Schätzung mittels KI können die Unternehmen das Verhalten anderer analysieren und dadurch auf einzelne Individuen Rückschlüsse ziehen.

Zum einen hat das zur Folge, dass der*die Einzelne die Kontrolle darüber verliert, welche Daten über ihn*sie bekannt sind. Zum anderen bedeutet dies im Umkehrschluss auch, dass die Preisgabe der eigenen persönlichen Daten große Folgen für andere User*innen haben kann. Denn in gewisser Weise füttert man damit die KIs mit wertvollem Wissen, womit unter Umständen sensible Informationen über andere Personen ermittelt werden können.  Nun könnte man auch an dieser Stelle erneut sagen: „Ist doch egal, ob die alles über uns wissen.“ Hier kommt jedoch der Knackpunkt. Denn diese Daten bleiben nicht ungenutzt und das kann für jede*n von uns direkte Folgen haben. So kann es zum Beispiel sein, dass dir bestimmte Jobangebote nicht angezeigt werden, da die KI beispielsweise vorhersagt, dass du gelegentlich zu Depressionen neigst. Oder sei es auch nur, dass dir ein Flugticket teuer angeboten wird, weil mittels Trackingdaten erkannt wurde, dass „User*innen wie du“ das Ticket auch zu einem höheren Preis kaufen. Sobald die Vorhersagen über uns dazu führen, dass wir anders behandelt werden, stehen gesellschaftliche Werte wie Fairness und Gleichbehandlung auf dem Spiel.

Eine weitere Problematik dieser auf statistischen Auswertungen beruhenden Vorhersagen ist, dass diese immer auf Wahrscheinlichkeiten beruhen. Es kann also passieren, dass einer Person beispielsweise aufgrund statistischer Annahmen die Kreditwürdigkeit abgesprochen wird, obwohl die Vorhersagen in ihrem Fall nicht zutreffend sind. Diese Diskriminierung geschieht aufgrund von Annahmen, auf die die betreffende Person keinen direkten Einfluss hat (weil das Modell ja anhand der Daten vieler anderer Individuen trainiert wird) und für die sie kein Einverständnis gegeben hat. Und selbst wenn die Genauigkeit der Vorhersagen bei 100 Prozent läge, ist es trotzdem moralisch falsch, Menschen mit Informationen zu bewerten und zu behandeln, die sie gar nicht preisgeben wollten.

Leider gibt es für all diese Probleme keine einfache technische Lösung. Vielmehr sind sowohl wir Nutzer*innen, als auch die Politik gefragt. Um unsere prädiktive Privatheit besser zu schützen, muss die Politik handeln. Die momentane Gesetzeslage verbietet zum Beispiel, dass selbst angegebene sensible Daten für Kredit-Scoring verwendet werden. Werden die gleichen Informationen aber durch die genannten prädiktiven Verfahrensweisen über ein Individuum ermittelt, ist dies nicht verboten. Solche Schlupflöcher in der Regulierung müssen gestopft und auch anonymisierte Daten müssen als sensible Daten betrachtet werden. Besonders wichtig ist aber die Bildung in diesem Bereich. Denn nur, wer weiß, wie mit unseren Daten im Netz verfahren wird, kann sich überhaupt eine differenzierte Meinung bilden und eine begründete Entscheidung treffen, die mehr ist als „ich habe nichts zu verbergen“.

 

Du möchtest mehr über Privatsphäre im Internet erfahren? Die öffentliche Ringvorlesung „Internet und Privatheit“ der TU Berlin läuft noch bis Anfang Juli – immer montags und online.

#Campus Stories  #Hintergründe