Privatheit in Zeiten lernender Maschinen

Man stelle sich vor, man liefe an einer Überwachungskamera vorbei und eine Software analysierte allein anhand von Gesichtszügen die eigene sexuelle Orientierung, die Neigung zu kriminellen Handlungen, politische Überzeugungen oder wie vertrauenswürdig, dominant oder intelligent man wirkt. Dies klingt wie Science-Fiction. Ist es aber nur bedingt. Denn tatsächlich entstehen durch die Möglichkeiten moderner Technologien des Maschinenlernens beziehungsweise der künstlichen Intelligenz ungeahnte Möglichkeiten der Datenauswertung. Die Gesichtsanalyse ist dabei nur ein Bereich von vielen.
Der Schlüssel zur Erlangung künstlicher Intelligenz besteht der Verwendung bestimmter Methoden zur Datenauswertung. Im Speziellen geht es darum, Algorithmen so zu programmieren, dass sie aus Erfahrung lernen und neues Wissen erzeugen können. Über die Erkennung von Trends oder Mustern in großen Datenmengen kann mit gewisser Wahrscheinlichkeit auf unbekannte Merkmale geschlossen werden. Computern werden Regeln beispielsweise zur Erkennung von Sprache oder Bildern nicht mehr „von Hand“ einprogrammiert. Stattdessen kommen Verfahren zum Einsatz, die an die Funktionsweise des menschlichen Gehirns angelehnt sind und über welche Regeln automatisch erlernt werden können.
Zum ersten Mal aufmerksam auf die „magischen“ Potenziale künstlicher Intelligenz wurde eine breite Öffentlichkeit im Jahr 2012 durch eine Studie von Forschern um Quoc V. Le und Andrew Ng von der Universität Stanford. In der Studie demonstrierten die Wissenschaftler, dass es möglich ist, im Videonetzwerk YouTube automatisiert Bilder von Katzen zu erkennen. Heute geht es aber nicht mehr nur um Bilderkennung. Die Einsatzbereiche für künstliche Intelligenz haben sich drastisch erweitert.
Menschen hinterlassen ununterbrochen Datenspuren. Nicht nur in sozialen Netzwerken oder beim Besuch von Webseiten, sondern auch durch die Nutzung von Smartphones, beim digitalen Fotografieren, beim Streamen von Videos oder Musik, durch das Tragen von Wearables, durch die Nutzung von Sprachassistenten, beim bargeldlosen Bezahlen, beim Passieren von Videoüberwachungssystemen – die Reihe ließe sich beliebig fortsetzen. Die dabei anfallenden Daten bleiben meistens nicht bei den Unternehmen, die sie ursprünglich erhoben haben. Über Datenhändler werden sie zwischen verschiedensten Unternehmen und auch staatlichen Behörden ausgetauscht. Dadurch werden eine Vielzahl an Organisationen oder Unternehmen in die Lage versetzt, umfangreiche Persönlichkeitsprofile zu erzeugen. Der entscheidende Punkt dabei ist jedoch, dass aus diesen Profilen auch Informationen „extrahiert“ werden können, welche nie direkt preisgegeben wurden.
Prominent aufgezeigt wurde dies durch die Forschung des Psychologen Michal Kosinski. Dessen Studien über die Verwendung von Facebook-Likes zum Zweck der Persönlichkeitsanalyse waren der Auslöser einer bis heute andauernden Diskussion über mögliche unlautere Wahlkampfmethoden beim Brexit sowie der US-Präsidentschaftswahl. Die Ergebnisse solcher Persönlichkeitsanalysen können verwendet werden, um hochgradig personalisierte Werbebotschaften zu erstellen, welche speziell auf die charakterlichen und psychologischen Eigenheiten der Empfänger abgestimmt sind. Hier geht es jedoch nicht darum, welche Auswirkungen das „Micro-Targeting“ in Wahlkämpfen haben kann, sondern um die viel grundsätzlichere Erkenntnis, dass die angesprochenen Persönlichkeitsanalysen eine neue Dimension der Verletzung der Privatheit bedeuten.
Die Grundlage der Persönlichkeitsanalysen können beiläufig erzeugte Tweets, Likes, Webseitenaufrufen oder Ähnliches sein. Aus diesen Informationen können nun durch Techniken des maschinellen Lernens weitere Informationen gewonnen werden, welche selbst gar nicht direkt Gegenstand der Datenspuren sind. Dazu gehören Informationen beispielsweise über politische oder sexuelle Orientierungen, den Konsum von Drogen oder Alkohol, den eigenen Beziehungsstatus, Alter, Geschlecht, ethnische Herkunft, Bildungsstatus, Intelligenz, Einkommenshöhe, Stimmungen, Gewissenhaftigkeit, Offenheit und vieles mehr. Kurzum: Die künstliche Intelligenz kennt einen besser, als die engsten Freunde es tun.
Zu den Datenspuren, welche wir hinterlassen, gehören auch digitale Bilder. Und auch aus diesen können qua künstlicher Intelligenz Informationen gewonnen werden, welche für die menschliche Wahrnehmung nicht zugänglich sind. Computer sind bessere Beobachter geworden, als wir dies sind. Wieder war es Michal Kosinski zusammen mit seinem Kollegen Yilun Wang, welcher dies durch eine aufsehenerregende Forschungsarbeit demonstriert hat. Über die Verwendung der Technik des „Deep Learnings“ – einer speziellen Art des maschinellen Lernens – entwickelten die beiden Forscher eine Software, welche die sexuelle Orientierung einer Person anhand ihres Gesichts bestimmt. Dabei liegt die Trefferquote bei der Analyse von nur fünf Bildern einer Person im Fall von homosexuellen Männern bei 91 Prozent.
Die sexuelle Orientierung ist nur eine von vielen Eigenschaften, welche durch die Verwendung künstlicher Intelligenz bei Gesichtserkennungssoftware detektiert werden kann. Die beiden Forscher Xiaolin Wu und Xi Zhang gingen so weit, einen Algorithmus darauf zu trainieren, anhand von Gesichtsmerkmalen kriminelle von nicht-kriminellen Menschen zu unterscheiden – mit einer Trefferquote von 90 Prozent. Die Studie mit dem Titel „Automated Inference on Criminality using Face Images“ erregte so viel Kritik und Widerspruch, dass sie im Internet nur noch in einer aktualisierten Version veröffentlicht wird, der eine dreiseitige Replik auf einige der geäußerten Kritiken vorgeschaltet ist. Man kann der Studie tatsächlich vorwerfen, dass der Schluss, dass es eine Korrelation zwischen Gesichtsmerkmalen und kriminellem Verhalten gibt, auf Basis eines fehlerhaften Studiendesigns gezogen wurde. So enthielt der Trainingsdatensatz, mit welchem der Gesichtserkennungsalgorithmus trainiert wurde, 1126 Fotos „nicht-krimineller“ Personen, welche aus verschiedenen Internetquellen gewonnen wurden, sowie 730 Fotos vorgeblich „krimineller“, also gerichtlich verurteilter Personen, welche durch chinesische Behörden zur Verfügung gestellt wurden. Und so lernt der Algorithmus am Ende weniger, kriminelle von nicht-kriminellen Personen voneinander zu unterscheiden. Vielmehr lernt er, Personen, welche sich selbst in einem guten Licht öffentlich darstellen, von Personen, von denen Fotos zum behördlichen Gebrauch angefertigt und welche von chinesischen Gerichten für schuldig befunden wurden, zu differenzieren. Oder, noch einfacher gesagt: Der Algorithmus lernt, lächelnde von nicht-lächelnden Personen zu unterscheiden.
Auch in Kosinskis Studie wirkt sich durch den gewählten Trainingsdatensatz, dessen Kern mehrere Zehntausend Fotos aus einer Dating-Plattform bilden, eine gewisse Verzerrung auf die Studienergebnisse aus. Diese Schwächen in den Forschungsdesigns werden gerne herangezogen, um die generelle Aussagekraft der Studien in Frage zu ziehen. Im Wesentlichen lautet die Kritik, dass schlicht keine Korrelation zwischen Gesichtsmerkmalen und der sexuellen Orientierung oder der Tendenz, Rechtsverletzungen zu begehen, besteht. Erinnerungen werden wach an längst überholte wissenschaftliche Theorien wie beispielsweise die Phrenologie oder die Physiognomik. Im Rahmen dieser Theorien meinten Wissenschaftler, aus der Form von Schädeln oder Gesichtern Rückschlüsse auf Charaktereigenschaften ziehen zu können. Derartige Methoden wurden auch in der nationalsozialistischen Rassenkunde eingesetzt.
Obwohl diese Ansätze zu Recht verworfen sind, lässt sich dennoch nicht leugnen, dass aus Merkmalen von Gesichtern auf weitere Eigenschaften geschlossen werden kann. So reicht etwa allein die Abbildung einer Augenbraue häufig aus, um auf das Geschlecht einer Person zu schließen. In ähnlicher Weise lässt sich problemlos das ungefähre Alter einer Person anhand ihres Gesichts bestimmen. Gleiches gilt für Stimmungen oder Emotionen oder auch Charaktereigenschaften wie Intro- oder Extrovertiertheit. Doch lassen sich auch politische oder sexuelle Orientierungen aus Gesichtern ablesen? Wie weit reichen die Möglichkeiten einer Gesichtsanalyse, welche von einem mit unzähligen Abbildungen von Gesichtern trainierten, künstlichen neuronalen Netz durchgeführt wird? Diese Frage kann an dieser Stelle nicht beantwortet werden. Fakt ist jedoch, dass bei aller Kritik an den beschrieben Datenauswertungsmethoden doch feststeht, dass über den Einsatz von künstlicher Intelligenz aus Gesichtsabbildungen, Likes, Webseitenaufrufen, digitalen Freundschaftsbeziehungen etc. private oder intime Informationen gewonnen werden, welche ohne maschinelles Lernen nicht zugänglich wären.
Durch die Nutzung von künstlicher Intelligenz eröffnen sich ungeahnte neue Möglichkeiten zur Analyse von Datensätzen. Und es sind nicht nur Wissenschaftler, welche sich der neuen Methoden bedienen, sondern freilich auch staatliche Stellen oder Wirtschaftsunternehmen. Wie die Firma FACEPTION: Sie verkauft Software, die über Gesichtsanalysen vermeintliche Gewalttäter beziehungsweise Terroristen detektieren soll. Unabhängig von der fraglichen Genauigkeit und Angemessenheit einer solchen Anwendung steht doch fest, dass wir es mit einer neuen Dimension der Verletzung der Privatheit zu tun haben. Im selben Zuge ist eine bislang völlig verkannte Herausforderung für den Datenschutz entstanden. Die Frage, die sich jedoch stellt, ist, ob der Datenschutz überhaupt noch das richtige Instrument ist, das gegen die Risiken der künstlichen Intelligenz ins Feld geführt werden kann. Und kann Privatheit überhaupt noch ein Gegengewicht darstellen gegen die beschriebenen Arten der Datenanalyse?
Den Kern sowohl des Konzepts der Privatheit als auch des Datenschutzes bildet die Idee der Kontrolle über personenbezogene Informationen. Wir alle wollen über Informationen, welche unsere eigene Person betreffen, bestimmen können. Dies betrifft die Art der Erhebung und Verarbeitung und vor allem die Verbreitung dieser Informationen. Juristisch abgebildet wird dies durch das Grundrecht auf informationelle Selbstbestimmung. Doch kann das, was unter informationeller Selbstbestimmung, Privatheit oder Datenschutz verstanden wird, überhaupt sinnvoll den Risiken des maschinellen Lernens und der künstlichen Intelligenz entgegengestellt werden?
Die Daten, mit denen die Lernalgorithmen trainiert werden, sind in der Welt, ob wir es wollen oder nicht. Und während der Berg an Daten, welchen wir hinterlassen, immer größer wird, werden die Algorithmen, die zur Auswertung der Datenberge eingesetzt werden, immer besser. Und es ist unmöglich, Methoden, wie sie Kosinski und viele andere verwenden, zu verbieten. Wir werden die Datenanalysen und die mit dem Einsatz von künstlicher Intelligenz verbundene Freilegung intimer Informationen nicht aufhalten können. Dass die Analysen dabei jeweils nur auf Wahrscheinlichkeitsaussagen basieren, also stets auch falsch liegen können, bildet eine kaum relevante Linderung der Privatheitsverletzung. Im Gegenteil bildet die Tatsache, dass Vorhersagen, welche durch den Einsatz künstlicher Intelligenz getroffen werden, immer nur bedingt akkurat sind, für sich genommen ein Problem. Denn so kann es zu falsch positiven Befunden kommen. Ein Gesicht wird mit kriminellen Neigungen assoziiert, obwohl diese gar nicht vorhanden sind. Eine Analyse der Daten des Fitnessarmbands führt fälschlicherweise zur Diagnose einer Depression. Aus den digitalen Freundschaftsbeziehungen einer Person wird unzutreffend auf deren politische Orientierung geschlossen. Die Beispiele ließen sich beliebig fortsetzen. Was aber ist, wenn die Widersprüche nicht bemerkt werden? Was ist, wenn Behörden, Wirtschaftsunternehmen oder andere mächtige Kollektive nur noch auf Basis einer durch maschinelles Lernen angetriebenen Datenanalyse Entscheidungen treffen?
Zweifelsohne entstehen große Unsicherheiten und Risiken. Dabei geht es allerdings nicht nur um Eingriffe in die Privatheit oder Verletzungen des Datenschutzes. Um was es in erster Linie geht, ist die Gefahr ungerechter Diskriminierung. Privatheit und Datenschutz sollen der Idee nach sicherstellen, dass Informationen beispielsweise über die sexuelle Orientierung einer Person oder über bestimmte politische Überzeugungen geheim bleiben. Aber wenn mit technischen Methoden die Mechanismen der Geheimhaltung ausgehebelt werden können, dann müssen wir uns fragen, weshalb die Geheimhaltung überhaupt nötig ist. Und die Antwort darauf liegt in der simplen Feststellung, dass Gesellschaften nach wie vor von diversen Formen sozialer Diskriminierung durchzogen sind. Geheimhaltung kann einen Schutz vor Diskriminierung darstellen. Dagegen jedoch steht die Feststellung, wie sie auch von Sicherheitsexperten wie Bruce Schneier gezogen werden: Wir erleben derzeit das „Ende der Geheimnisse“.
Die Auseinandersetzungen über Privatheitsverletzungen, Datenschutzparagraphen oder Niveaus der Informationssicherheit dürfen uns nicht davon ablenken, dass die größte soziale Veränderung, welche digitale Technologien anstoßen müssen, darin liegt, gegen Formen sozialer Diskriminierung zu kämpfen. Spätestens durch den Einsatz von künstlicher Intelligenz erleben wir den Beginn einer Post-Privacy Gesellschaft. Und diese Post-Privacy Gesellschaft verlangt von uns, weniger über Datenschutz, als über Gerechtigkeit nachzudenken. Durch eine rechtliche Regulierung von Technologie im Sinne einer künstlichen Restriktion ihrer Möglichkeiten kann etwa dem Diskriminierungsrisiko nur bedingt begegnet werden. Es bedarf einer tiefergehenden sozialen Veränderung.
Was bislang diskutiert wird, ist, wie die künstliche Intelligenz in ihrer technischen Verfasstheit gestaltet werden kann, dass sie beispielsweise dunkelhäutige Menschen oder Frauen nicht diskriminiert. Daneben wird jedoch vergessen, dass auch dann, wenn die Algorithmen und Datensätze vollends gerecht und situationsangemessen gestaltet sind, ein hohes Diskriminierungsrisiko besteht. Schließlich können wir die künstliche Intelligenz als den neusten Vorstoß sehen auf dem Weg, Menschen stets „gläserner“ zu machen. Und dieses „Gläsern-Sein“ bedeutet, dass plötzlich immer mehr persönliche Informationen offen liegen, welche als Anlass zur Diskriminierung genommen werden können. Dabei müssen insbesondere mächtige staatliche und wirtschaftliche Institutionen in den Blick genommen und reguliert werden, welche dieses „Gläsern-Sein“ ausnutzen wollen, um Menschen auf ungerechte Weise zu benachteiligen oder zu sanktionieren.
Doch es geht auch um den direkten Umgang untereinander, online wie offline. Wird die Gesellschaft die intimen Informationen, die durch künstliche Intelligenz massenhaft gewonnen werden, als Anlass nehmen, sich in Toleranz zu üben? Oder wird die Diskriminierung von Menschen, die abweichen, „unnormal“ oder nicht Teil der sozialen Eigengruppe sind, zunehmen? Um dies zu verhindern, ist die Etablierung eines gesellschaftsweiten Bildungs- und Politikprogramms erforderlich. In diesem muss verstärkt über bestehende Formen der Diskriminierung, über die Konstruktion von Eigen- und Fremdgruppen, über Marginalisierung, Entrechtung, Exklusion und dergleichen diskutiert und aufgeklärt werden. Es ist ein Fehler, bei jeder neuen Technik der Verarbeitung personenbezogener Daten durch künstliche Intelligenz nur über Privatheit und Datenschutz zu diskutieren. Vielmehr müssen wir lernen, mit der neu geschaffenen Transparenz von Menschen umzugehen, und uns dabei stets für die Verhinderung von Diskriminierung aussprechen.