Jahresabschluss

Für den letzten Vortrag in diesem Jahr war ich nochmal in Berlin, um bei der inzwischen achten Ausgabe des „Privacy, Datenschutz & Surveillance“-Workshops zu sprechen. In meinem Vortrag habe ich einmal mehr dafür plädiert, Privatheit als Mechanismus des Identitätsschutzes angesichts aktueller technischer Entwicklungen im Bereich der künstlichen Intelligenz weitestgehend aufzugeben, um stattdessen alles auf die Idee der genuin sozialen (und nicht nur algorithmischen) Diskriminierungsvermeidung zu fokussieren. Einen Konferenzbericht werde ich demnächst hier verlinken.

Privatheit in Zeiten lernender Maschinen

Man stelle sich vor, man liefe an einer Überwachungskamera vorbei und eine Software analysierte allein anhand von Gesichtszügen die eigene sexuelle Orientierung, die Neigung zu kriminellen Handlungen, politische Überzeugungen oder wie vertrauenswürdig, dominant oder intelligent man wirkt. Dies klingt wie Science-Fiction. Ist es aber nur bedingt. Denn tatsächlich entstehen durch die Möglichkeiten moderner Technologien des Maschinenlernens beziehungsweise der künstlichen Intelligenz ungeahnte Möglichkeiten der Datenauswertung. Die Gesichtsanalyse ist dabei nur ein Bereich von vielen. „Privatheit in Zeiten lernender Maschinen“ weiterlesen

Neuer Aufsatz zum Maschinenlernen

Unter dem Titel „Rassistische Maschinen – Übertragungsprozesse von Wertorientierungen zwischen Gesellschaft und Technik“ ist im Springer Verlag ein neuer Aufsatz von mir erschienen. Darin untersuche ich, wie Rassismus, welcher zuerst einmal ein genuin soziales Phänomen ist, über verschiedene Übersetzungsprozesse hinweg in die Funktionsweise informationstechnischer Systeme einfließt. Das Fazit des Aufsatzes lautet, dass es einer kritischen Reflexion von (Trainings-)Datensätzen, welche im Kontext des maschinellen Lernens zum Einsatz kommen, bedarf.

Risiken des maschinellen Lernens

Mit den Methoden des maschinellen Lernens werden derzeit mit konstanter Regelmäßigkeit neue Durchbrüche erzielt. Wenn dabei Anwendungen involviert sind, welche personenbezogene Informationen oder Verhaltensdaten erheben und verarbeiten, wird dies typischerweise als eine Bedrohung für den Privatheits- und Datenschutz der Betroffenen gesehen. Genau diesen Aspekt habe ich zuletzt in einem Vortrag an der Universität Darmstadt aufgegriffen und dabei Anwendungen insbesondere aus den Bereichen der Persönlichkeitsanalyse und Bilderkennung diskutiert. Ich habe jedoch in Frage gestellt, inwiefern der Ansatz, die erwähnten Anwendungen mit dem Verweis auf Privatheitsverletzungen zu kritisieren, überhaupt angemessen ist. Anstatt auf Privatheit zu referieren, um den Risiken des maschinellen Lernens zu begegnen, ist es, so meine These, notwendig, jenseits von Privatheitskonzepten auf die Idee der Diskriminierungsvermeidung zurückzugreifen. Privatheits- und Datenschutz erfordert immer individuelle Informationskontrolle. Durch das maschinelle Lernen jedoch werden die Möglichkeiten der individuellen Informationskontrolle massiv eingeschränkt. Im Vortrag habe ich dementsprechend dafür argumentiert, dass eine wirklich effektive Begegnung der Risiken des Maschinenlernens nur durch den Rückgriff auf Grundsätze der Anti-Diskriminierung erfolgen kann.