Privacy Literacy und seine Probleme

Angesichts stetig steigender Risiken für den Schutz der informationellen Privatheit im Kontext vernetzter informationstechnischer Systeme werden immer häufiger Forderungen nach Privacy Literacy laut. Privacy Literacy meint, dass Nutzerinnen und Nutzer digitaler Medien eine gewisse Bandbreite an Kompetenzen der Mediennutzung erlernen und besitzen sollen. Die Ausbildung von Mediennutzungsfähigkeiten, welche das Schutzverhalten hinsichtlich der eigenen Privatheit betreffen, kann als eine Antwort auf das Problem des „privacy paradox“ gesehen werden. Das „privacy paradox“ besagt, dass es eine Diskrepanz gibt zwischen den Bekundungen über die Wichtigkeit des Schutzes der eigenen Privatheit und dem konkreten Mediennutzungsverhalten, im Rahmen dessen kaum auf den Privatheitsschutz geachtet wird. Dieser Kluft zwischen Überzeugung und Handeln kann durch Privatheitskompetenzen begegnet werden. Nutzerinnen und Nutzer digitaler Medien werden qua Bildung gewissermaßen „ermächtigt“, digitale Medien beziehungsweise digitale Plattformen und Services so zu nutzen, dass die eigene Privatheit geschützt wird.
Privacy Literacy umfasst dementsprechend eine ganze Reihe an Kompetenzen, welche das deklarative und prozedurale Wissen über Anbieter und Praktiken von Online-Plattformen und Services, über Strategien hinsichtlich der individuellen Regulation der eigenen Privatheit, über Datenschutzgesetze und Datenschutzinstitutionen sowie über technische Aspekte rund um die Bedienung und Nutzung von Datenschutz-Tools umfassen. Von den genannten Punkten ist sicherlich der letztgenannte der technischen Kompetenzen der zentralste. Privacy Literacy geht hier über in Computer Literacy. So werden, wenn es um Schutzpraktiken für die informationelle Privatheit geht, typischerweise insbesondere Aspekte wie Privatsphäreeinstellungen, Selbstdatenschutztools oder Privacy Enhancing Technologien thematisiert. Das Ziel all dessen besteht darin, Nutzerinnen und Nutzern digitaler Medien zu ermöglichen, personenbezogene Informationen möglichst umfassend kontrollieren und immer vordringlicher werdenden Privatheitsrisiken entgegensteuern zu können.
Die Forderungen nach Privacy Literacy, nach Datenschutzkompetenzen und technischen Fähigkeiten, sich selbst vor Privatheitsbedrohungen zu schützen, werden typischerweise unhinterfragt aufgenommen und unkritisch weiterverbreitet. Dabei gibt es eine ganze Reihe an Problemen, welche bislang kaum bedacht worden sind.
Erstens besteht das Problem, dass es massive soziale Ungleichheiten gibt hinschtlich der Fähigkeiten zur Selbstbildung in Privatheitsfragen. Durch Studien kann gezeigt werden, dass Personen mit einem niedrigen sozioökonomischen Status häufiger „context collapses“ oder „turbulences“ auf Online-Plattformen erfahren und sie am ehesten gefährdet sind, dass ihre eigene Privatheit durch wirtschaftliche oder staatliche Institutionen verletzt wird. Gleichzeitig sind genau diese Personen am wenigsten „privacy literate“. Umgekehrt erfahren diejenigen Personen, welche sich am ehesten Privacy Literacy aneignen können, aufgrund ihres eher hohen sozioökonomischen Status auch eher geringere institutionelle Privatheitsverletzungen. Privacy Literacy kann also angesichts starker sozialer Ungleichverteilungen hinsichtlich von Bildungschancen nicht als allgemeine „Lösung“ gesehen werden.
Zweitens besteht das Problem, dass die Forschung zur Privacy Literacy davon ausgeht, dass Nutzerinnen und Nutzer digitaler Medien per se rationale Akteure sind, welche bei quasi jeglicher Interaktion mit informationstechnischen Systemen Kosten-Nutzen-Kalkulationen bei der Informationspreisgabe durchführen beziehungsweise Risiken gegen Benefite aufwiegen. Dabei kann gezeigt werden, dass aufgrund der typischerweise stark routinenbasierten, affektiven oder gar irrationalen Mediennutzungspraxis vorhandene Wissensbestände über Methoden und Techniken des Privatheitsschutzes gar nicht erst abgerufen beziehungsweise praktisch realisiert werden.
Drittens besteht das Problem, dass Privacy Literacy sich hauptsächlich mit Frontend-Features beschäftigt, also mit Privatsphäre- oder Datenschutzeinstellungen, welche an den Benutzeroberflächen von Plattformen und Diensten vorgenommen werden können. Dabei gerät außer Acht, dass eine ganze Reihe an Privatheitsverletzungen sich im Backend, also „hinter“ den Benutzeroberflächen, abspielen, wo Verfahren des „social sortings“, des Maschinenlernens oder des Data Minings zum Einsatz kommen.
Viertens besteht das Problem, dass der Diskurs um Privacy Literacy sich stillschweigend damit einverstanden erklärt, dass sukzessive die einzelnen Nutzerinnen und Nutzer digitaler Medien mit der Verantwortung beladen werden, ihre Privatheit zu schützen – obwohl genau diese Aufgabe effektiv nur durch staatliche Stellen, welche etwa IT-Unternehmen regulieren sollen, vorgenommen werden kann. Dieser als „responsibilization“ bezeichnete Prozess der Transferierung von Verantwortung von staatlichen Institutionen hin zu Einzelpersonen muss kritisch gesehen werden, da Einzelpersonen unter anderem aufgrund ihrer fehlenden Einsichts- und Regulierungsmöglichkeiten gegenüber Providern und Plattformanbietern niemals effektiv den Schutz ihrer eigenen Privatheit sicherstellen können.