Risiken des maschinellen Lernens

Mit den Methoden des maschinellen Lernens werden derzeit mit konstanter Regelmäßigkeit neue Durchbrüche erzielt. Wenn dabei Anwendungen involviert sind, welche personenbezogene Informationen oder Verhaltensdaten erheben und verarbeiten, wird dies typischerweise als eine Bedrohung für den Privatheits- und Datenschutz der Betroffenen gesehen. Genau diesen Aspekt habe ich zuletzt in einem Vortrag an der Universität Darmstadt aufgegriffen und dabei Anwendungen insbesondere aus den Bereichen der Persönlichkeitsanalyse und Bilderkennung diskutiert. Ich habe jedoch in Frage gestellt, inwiefern der Ansatz, die erwähnten Anwendungen mit dem Verweis auf Privatheitsverletzungen zu kritisieren, überhaupt angemessen ist. Anstatt auf Privatheit zu referieren, um den Risiken des maschinellen Lernens zu begegnen, ist es, so meine These, notwendig, jenseits von Privatheitskonzepten auf die Idee der Diskriminierungsvermeidung zurückzugreifen. Privatheits- und Datenschutz erfordert immer individuelle Informationskontrolle. Durch das maschinelle Lernen jedoch werden die Möglichkeiten der individuellen Informationskontrolle massiv eingeschränkt. Im Vortrag habe ich dementsprechend dafür argumentiert, dass eine wirklich effektive Begegnung der Risiken des Maschinenlernens nur durch den Rückgriff auf Grundsätze der Anti-Diskriminierung erfolgen kann.