Neuer Aufsatz zum Maschinenlernen

Unter dem Titel „Rassistische Maschinen – Übertragungsprozesse von Wertorientierungen zwischen Gesellschaft und Technik“ ist im Springer Verlag ein neuer Aufsatz von mir erschienen. Darin untersuche ich, wie Rassismus, welcher zuerst einmal ein genuin soziales Phänomen ist, über verschiedene Übersetzungsprozesse hinweg in die Funktionsweise informationstechnischer Systeme einfließt. Das Fazit des Aufsatzes lautet, dass es einer kritischen Reflexion von (Trainings-)Datensätzen, welche im Kontext des maschinellen Lernens zum Einsatz kommen, bedarf.

Gesellschaftspolitische Aspekte des Maschinenlernens

In Schwäbisch Gmünd sprach ich zuletzt vor Mitarbeitern des Baden-Württembergischen Innenministeriums über gesellschaftspolitische und technikethische Implikationen des maschinellen Lernens. Die gesellschaftlichen Folgen des Technikeinsatzes sind umfassend – sie reichen von durch Social-Media-Plattformen geförderten politischen Radikalisierungsprozessen über algorithmische Diskriminierung bis hin zu neuartigen militärischen Bedrohungsszenarien. Das Thema ist und bleibt hochrelevant.

Risiken des maschinellen Lernens

Mit den Methoden des maschinellen Lernens werden derzeit mit konstanter Regelmäßigkeit neue Durchbrüche erzielt. Wenn dabei Anwendungen involviert sind, welche personenbezogene Informationen oder Verhaltensdaten erheben und verarbeiten, wird dies typischerweise als eine Bedrohung für den Privatheits- und Datenschutz der Betroffenen gesehen. Genau diesen Aspekt habe ich zuletzt in einem Vortrag an der Universität Darmstadt aufgegriffen und dabei Anwendungen insbesondere aus den Bereichen der Persönlichkeitsanalyse und Bilderkennung diskutiert. Ich habe jedoch in Frage gestellt, inwiefern der Ansatz, die erwähnten Anwendungen mit dem Verweis auf Privatheitsverletzungen zu kritisieren, überhaupt angemessen ist. Anstatt auf Privatheit zu referieren, um den Risiken des maschinellen Lernens zu begegnen, ist es, so meine These, notwendig, jenseits von Privatheitskonzepten auf die Idee der Diskriminierungsvermeidung zurückzugreifen. Privatheits- und Datenschutz erfordert immer individuelle Informationskontrolle. Durch das maschinelle Lernen jedoch werden die Möglichkeiten der individuellen Informationskontrolle massiv eingeschränkt. Im Vortrag habe ich dementsprechend dafür argumentiert, dass eine wirklich effektive Begegnung der Risiken des Maschinenlernens nur durch den Rückgriff auf Grundsätze der Anti-Diskriminierung erfolgen kann.

Machine Learning in Unternehmen

In Berlin war ich im IG-Metall-Haus zu einem Workshop zu Smart Data und künstlicher Intelligenz eingeladen. Im Workshop wurden technische, ökonomische und ethische Aspekte von durch künstliche Intelligenz gestützten Systemen in Unternehmen beleuchtet. Besonders gut gefallen hat mir ein Vortrag von Jens Südekum, in welchem er deutlich machte, dass die gemeinhin geäußerten Befürchtungen, Roboter würden den Menschen ihre Arbeitsplätze „wegnehmen“, ziemlich aus der Luft gegriffen sind. Ich für meinen Teil habe unter anderem darüber gesprochen, dass Technikethik im Kontext von KI-Systemen weniger bedeutet, die Entwicklung derselben irgendwie in Abgleich zu bringen mit den Grundsätzen klassische Ethiktheorien, sondern dass es vielmehr um Charakterdispositionen geht, mit denen Technikentwickler ausgestattet werden sollten, sodass sie in die Lage versetzt werden, ihre Tätigkeit auch und gerade unter den Bedingungen bedingter Zurechenbarkeit von Verantwortung kritisch zu hinterfragen.

Nochmal künstliche Intelligenz

Das Thema künstliche Intelligenz beschäftigt Politik, Wissenschaft und Wirtschaft zur Zeit gleichermaßen intensiv. Dabei war ich erneut eingeladen, um über ethische Aspekte des Einsatzes und der Entwicklung von KI-Systemen vorzutragen – diesmal beim Industrieausschuss der Industrie- und Handelskammer Region Stuttgart. Mein Eindruck aus der anschließenden Diskussion war, dass insbesondere die Potentiale bei der Technologieentwicklung in China Auslöser von Bedenken sind. Und tatsächlich ist davon auszugehen, dass, sollte einmal so etwas wie eine starke oder generelle künstliche Intelligenz entwickelt werden, dies in China passieren wird – weil dort die größten Datenmengen vorliegen und Datenschutzgesetze rar sind.

Roundtable zum Thema künstliche Intelligenz

Zusammen mit der Rechtswissenschaftlerin Melinda Lohmann und dem Informatiker Sebastian Huhn war ich in Berlin zu einem Roundtable der Stiftung Mercator eingeladen, bei welchem wir mit verschiedenen Vertretern aus der Politik über künstliche Intelligenz und maschinelles Lernen diskutiert haben. Unabhängig von den Überlegungen über potentielle utopische oder dystopische Zukunftsszenarien rund um die vermeintliche Entstehung einer generellen künstlichen Intelligenz war es mir dabei wichtig, zu betonen, dass man sich auf aktuelle und konkrete Probleme rund um spezielle KI-Systeme konzentrieren sollte, da diese bereits schwerwiegende negative Auswirkungen auf die Gesellschaft besitzen.