Paper zu Privacy

In der neuen Ausgabe des „Journal of Information Ethics“ ist mein Aufsatz „Privacy Literacy and Its Problems“ erschienen. Darin kritisiere ich das Konzept der Privatheitskompetenz aus verschiedenen Perspektiven. In Kurzform habe ich meine Überlegungen dazu ich in diesem Blog-Post festgehalten.

Privacy Literacy und seine Probleme

Angesichts stetig steigender Risiken für den Schutz der informationellen Privatheit im Kontext vernetzter informationstechnischer Systeme werden immer häufiger Forderungen nach Privacy Literacy laut. Privacy Literacy meint, dass Nutzerinnen und Nutzer digitaler Medien eine gewisse Bandbreite an Kompetenzen der Mediennutzung erlernen und besitzen sollen. Die Ausbildung von Mediennutzungsfähigkeiten, welche das Schutzverhalten hinsichtlich der eigenen Privatheit betreffen, kann als eine Antwort auf das Problem des „privacy paradox“ gesehen werden. Das „privacy paradox“ besagt, dass es eine Diskrepanz gibt zwischen den Bekundungen über die Wichtigkeit des Schutzes der eigenen Privatheit und dem konkreten Mediennutzungsverhalten, im Rahmen dessen kaum auf den Privatheitsschutz geachtet wird. Dieser Kluft zwischen Überzeugung und Handeln kann durch Privatheitskompetenzen begegnet werden. Nutzerinnen und Nutzer digitaler Medien werden qua Bildung gewissermaßen „ermächtigt“, digitale Medien beziehungsweise digitale Plattformen und Services so zu nutzen, dass die eigene Privatheit geschützt wird. „Privacy Literacy und seine Probleme“ weiterlesen

Neuer Aufsatz

Nach einigem Warten auf den Sammelband ist nun ein Text von mir erschienen, welcher nochmals eine Auskoppelung einiger Argumente aus meinem Buch Das Ende der Informationskontrolle darstellt. Der Aufsatz über den „Angriff“ digitaler Medien auf die Intimität kann  hier (mit entsprechendem Zugang) online nachgelesen werden.


Jahresabschluss

Für den letzten Vortrag in diesem Jahr war ich nochmal in Berlin, um bei der inzwischen achten Ausgabe des „Privacy, Datenschutz & Surveillance“-Workshops zu sprechen. In meinem Vortrag habe ich einmal mehr dafür plädiert, Privatheit als Mechanismus des Identitätsschutzes angesichts aktueller technischer Entwicklungen im Bereich der künstlichen Intelligenz weitestgehend aufzugeben, um stattdessen alles auf die Idee der genuin sozialen (und nicht nur algorithmischen) Diskriminierungsvermeidung zu fokussieren. Einen Konferenzbericht werde ich demnächst hier verlinken.

Neue Aufsätze

In dem soeben erschienenen Sammelband Zur Fortentwicklung des Datenschutzes habe ich einen Aufsatz über Auslassungen und übersehene Aspekte innerhalb der Diskurses zur Privacy Literacy beleuchtet. Im selben Band bin ich ferner Co-Autor eines Aufsatzes über die sogenannte „Überwachungs-Gesamtrechnung“, bei welcher es um die Frage geht, ob ein gesetzlich definiertes Höchstmaß an Überwachungsmaßnahmen existiert. Der Sammelband kann bei Springer mit entsprechendem Uni-Zugang frei heruntergeladen werden.


Privatheit in Zeiten lernender Maschinen

Man stelle sich vor, man liefe an einer Überwachungskamera vorbei und eine Software analysierte allein anhand von Gesichtszügen die eigene sexuelle Orientierung, die Neigung zu kriminellen Handlungen, politische Überzeugungen oder wie vertrauenswürdig, dominant oder intelligent man wirkt. Dies klingt wie Science-Fiction. Ist es aber nur bedingt. Denn tatsächlich entstehen durch die Möglichkeiten moderner Technologien des Maschinenlernens beziehungsweise der künstlichen Intelligenz ungeahnte Möglichkeiten der Datenauswertung. Die Gesichtsanalyse ist dabei nur ein Bereich von vielen. „Privatheit in Zeiten lernender Maschinen“ weiterlesen

Risiken des maschinellen Lernens

Mit den Methoden des maschinellen Lernens werden derzeit mit konstanter Regelmäßigkeit neue Durchbrüche erzielt. Wenn dabei Anwendungen involviert sind, welche personenbezogene Informationen oder Verhaltensdaten erheben und verarbeiten, wird dies typischerweise als eine Bedrohung für den Privatheits- und Datenschutz der Betroffenen gesehen. Genau diesen Aspekt habe ich zuletzt in einem Vortrag an der Universität Darmstadt aufgegriffen und dabei Anwendungen insbesondere aus den Bereichen der Persönlichkeitsanalyse und Bilderkennung diskutiert. Ich habe jedoch in Frage gestellt, inwiefern der Ansatz, die erwähnten Anwendungen mit dem Verweis auf Privatheitsverletzungen zu kritisieren, überhaupt angemessen ist. Anstatt auf Privatheit zu referieren, um den Risiken des maschinellen Lernens zu begegnen, ist es, so meine These, notwendig, jenseits von Privatheitskonzepten auf die Idee der Diskriminierungsvermeidung zurückzugreifen. Privatheits- und Datenschutz erfordert immer individuelle Informationskontrolle. Durch das maschinelle Lernen jedoch werden die Möglichkeiten der individuellen Informationskontrolle massiv eingeschränkt. Im Vortrag habe ich dementsprechend dafür argumentiert, dass eine wirklich effektive Begegnung der Risiken des Maschinenlernens nur durch den Rückgriff auf Grundsätze der Anti-Diskriminierung erfolgen kann.

Neuer Aufsatz zum Thema Privatheit

Unter dem Titel Privatheit und selbstbestimmtes Leben in der digitalen Welt ist im Springer-Verlag ein neuer Sammelband erschienen, zu welchem ich einen Aufsatz beisteuern durfte. In diesem gehe ich der Frage nach, inwiefern Privatheit als ambivalentes Phänomen betrachtet werden kann. Auf der einen Seite sichert Privatheit wichtige gesellschaftliche Grundgüter ab, auf der anderen Seite dient sie der Verschleierung von moralisch relevanten Normverletzungen, der Unterdrückung oder der Entpolitisierung bestimmter Handlungen.  Privatheit, so meine Argumentation, muss einerseits als hoher Wert gesehen werden, welcher andererseits jedoch nicht ausschließlich positiv betrachtet werden darf.