Neuer Aufsatz

Zuletzt erschien im Journal „Ethics and Information Technology“ mein neues Paper „From privacy to anti-discrimination in times of machine learning“. Das Paper liegt mir besonders am Herzen, da es versucht, zu zeigen, warum die Idee der informationellen Privatheit angesichts von Technologien wie dem maschinellen Lernen nahezu obsolet ist – ein Gedanke, der in der Privacy-Forschung häufig nicht zugelassen wird – und wir andere Formen des Identitätsschutzes gesellschaftlich etablieren müssen. Der Artikel kann hier (mit Uni-VPN) oder hier (ohne Uni-VPN) nachgelesen werden.

Wettkampf oder Kooperation

Für den Webauftritt des Wissenschaftsjahres 2019 zum Thema künstliche Intelligenz habe ich einen kurzen Artikel über die Rhetorik und Rahmung der entsprechenden Technikentwicklung geschrieben, der bei Interesse hier nachgelesen werden kann.

AI Governance

An der Universität in Hongkong wurde jüngst eine Konferenz zur Ethik und Governance von KI-Systemen veranstaltet, zu der ich eingeladen wurde. Im Sinne der Bewahrung einer guten Klimabilanz habe ich den Vortrag allerdings per Skype gehalten. Es war dennoch schön, virtuell bei der Konferenz dabei zu sein. Ein Ergebnis derselben ist zudem ein Übersichtspaper über verschiedene AI Governance Initiativen, an dem ich mitgewirkt habe. Der Text ist als Preprint verfügbar oder kann über folgenden Link eingesehen werden.

Besuch am CERN

Zuletzt wurde ich nach Genf eingeladen, um bei einer Konferenz über Big Data in der Medizin zum Thema KI-Ethik vorzutragen. Obwohl die Konferenz am CERN stattfand, wurde ich nicht von einem schwarzen Loch eingesaugt. Demnächst wird ein White Paper zur Konferenz erscheinen, dass ich an dieser Stelle verlinken werde.


Vortrag über Datenarbeit

Bei der Jahrestagung der Schweizerischen Gesellschaft für Kommunikations- und Medienwissenschaft – diesmal fand sie im schönen St. Gallen statt – habe ich über das Phänomen vorgetragen, dass Nutzer digitaler Medien zur „Datenarbeit“ genötigt werden, indem sie durch unscheinbare Microtasks – etwa indem sie Mails als Spam markieren, reCAPTCHA lösen, Bilder markieren, Übersetzungen verbessern etc. – unwissend Systeme der künstlichen Intelligenz verbessern. Faktisch ist die Intelligenz von Maschinen in weiten Teilen eine Akkumulation von durch Menschen gelösten kognitiven Kleinstaufgaben. Die beschriebenen Sachverhalte habe ich im Vortrag insbesondere aus einer gerechtigkeitstheoretischen Perspektive bewertet und dabei problematisiert, dass es großen IT-Unternehmen weitgehend unbemerkt gelungen ist, ein kapitalistisches Verwertungsgeschehen auf undurchsichtige und zumeist nicht-entlohnte Datenproduktions- und Indexierungsarbeiten auszudehnen.


Neuer Aufsatz – What AI (currently) can’t do

In AI & Society erschien jüngst mein neuer Aufsatz über aktuelle Limitationen und Herausforderungen bei der Entwicklung und Anwendung künstlicher Intelligenz. Der Aufsatz beschreibt in einer Übersicht fünfzehn verschiedene Bereiche, in denen methodologische, gesellschaftliche oder technologische „shortcomings“ aktueller KI-Technologie situiert sind. Eingesehen werden kann das Paper unter diesem Link.

Übersichtsartikel zur Ethik der künstlichen Intelligenz

Angesichts der Vielzahl an Richtlinien zur Ethik der künstlichen Intelligenz beziehungsweise des maschinellen Lernens habe ich einen Übersichtsartikel geschrieben, in dem ich die Richtlinien miteinander vergleiche, Gemeinsamkeiten herausarbeite, aber auch Leerstellen benenne und reflektiere, welcher Typus von Ethiktheorie jeweils verfolgt wird. Letztlich beschreibe ich auch, inwiefern die Richtlinien in der Praxis umgesetzt werden können. Das Paper ist bei arXiv als Preprint erschienen, kann unter diesem Link eingesehen werden und ist von der Technology Review zu den „most thought-provoking papers“ der dritten Märzwoche gerechnet worden. Anbei zudem das „Herzstück“ des Papers, die tabellarische Übersicht über die Ethik-Richtlinien und ihre einzelnen Aspekte.


Jahresabschluss

Für den letzten Vortrag in diesem Jahr war ich nochmal in Berlin, um bei der inzwischen achten Ausgabe des „Privacy, Datenschutz & Surveillance“-Workshops zu sprechen. In meinem Vortrag habe ich einmal mehr dafür plädiert, Privatheit als Mechanismus des Identitätsschutzes angesichts aktueller technischer Entwicklungen im Bereich der künstlichen Intelligenz weitestgehend aufzugeben, um stattdessen alles auf die Idee der genuin sozialen (und nicht nur algorithmischen) Diskriminierungsvermeidung zu fokussieren. Einen Konferenzbericht werde ich demnächst hier verlinken.

Relevanzzumessung und kognitive Verzerrungen

Bei der Jahrestagung der Gesellschaft für Wissenschafts- und Technikforschung an der TU Berlin habe ich über den Einfluss kognitiver Verzerrungen auf die Relevanzzumessung bei digitalen sozialen Netzwerken gesprochen. Indem die Benutzeroberflächen jener Netzwerke insbesondere für eine impulsive Form der Mediennutzung optimiert sind, manifestieren sich im Nutzungsverhalten eine Reihe kognitiver Verzerrungen. Zu diesen gehörten beispielsweise der Bestätigungs- sowie der Verfügbarkeitsfehler, der Authority Bias, Third-Person-, Backfire-, Halo-, oder Mitläufer-Effekte und dergleichen mehr. Indem nun prädiktive Systeme in Form von Personalisierungsalgorithmen zum Einsatz kommen, werden in der Vergangenheit gezeigte kognitive Verzerrungen technisch „erlernt“ und verstetigt. Das Maschinenlernen führt so zu einer technischen Aushärtung und „Unsichtbarmachung“ kognitiver Fehlleistungen. In letzter Konsequenz hat dies zur Entstehung einer Reihe an gesellschaftspolitischen Großproblemen geführt, welche von der starken Verbreitung von Fake-News sowie emotional aufgeladenem, extremem Content über die politische Radikalisierung bis hin zur weitreichenden Vernichtung jeglicher streitkulturell gezügelten Diskursführung reichen.


Privatheit in Zeiten lernender Maschinen

Man stelle sich vor, man liefe an einer Überwachungskamera vorbei und eine Software analysierte allein anhand von Gesichtszügen die eigene sexuelle Orientierung, die Neigung zu kriminellen Handlungen, politische Überzeugungen oder wie vertrauenswürdig, dominant oder intelligent man wirkt. Dies klingt wie Science-Fiction. Ist es aber nur bedingt. Denn tatsächlich entstehen durch die Möglichkeiten moderner Technologien des Maschinenlernens beziehungsweise der künstlichen Intelligenz ungeahnte Möglichkeiten der Datenauswertung. Die Gesichtsanalyse ist dabei nur ein Bereich von vielen. „Privatheit in Zeiten lernender Maschinen“ weiterlesen

Gesellschaftspolitische Aspekte des Maschinenlernens

In Schwäbisch Gmünd sprach ich zuletzt vor Mitarbeitern des Baden-Württembergischen Innenministeriums über gesellschaftspolitische und technikethische Implikationen des maschinellen Lernens. Die gesellschaftlichen Folgen des Technikeinsatzes sind umfassend – sie reichen von durch Social-Media-Plattformen geförderten politischen Radikalisierungsprozessen über algorithmische Diskriminierung bis hin zu neuartigen militärischen Bedrohungsszenarien. Das Thema ist und bleibt hochrelevant.

Risiken des maschinellen Lernens

Mit den Methoden des maschinellen Lernens werden derzeit mit konstanter Regelmäßigkeit neue Durchbrüche erzielt. Wenn dabei Anwendungen involviert sind, welche personenbezogene Informationen oder Verhaltensdaten erheben und verarbeiten, wird dies typischerweise als eine Bedrohung für den Privatheits- und Datenschutz der Betroffenen gesehen. Genau diesen Aspekt habe ich zuletzt in einem Vortrag an der Universität Darmstadt aufgegriffen und dabei Anwendungen insbesondere aus den Bereichen der Persönlichkeitsanalyse und Bilderkennung diskutiert. Ich habe jedoch in Frage gestellt, inwiefern der Ansatz, die erwähnten Anwendungen mit dem Verweis auf Privatheitsverletzungen zu kritisieren, überhaupt angemessen ist. Anstatt auf Privatheit zu referieren, um den Risiken des maschinellen Lernens zu begegnen, ist es, so meine These, notwendig, jenseits von Privatheitskonzepten auf die Idee der Diskriminierungsvermeidung zurückzugreifen. Privatheits- und Datenschutz erfordert immer individuelle Informationskontrolle. Durch das maschinelle Lernen jedoch werden die Möglichkeiten der individuellen Informationskontrolle massiv eingeschränkt. Im Vortrag habe ich dementsprechend dafür argumentiert, dass eine wirklich effektive Begegnung der Risiken des Maschinenlernens nur durch den Rückgriff auf Grundsätze der Anti-Diskriminierung erfolgen kann.

Machine Learning in Unternehmen

In Berlin war ich im IG-Metall-Haus zu einem Workshop zu Smart Data und künstlicher Intelligenz eingeladen. Im Workshop wurden technische, ökonomische und ethische Aspekte von durch künstliche Intelligenz gestützten Systemen in Unternehmen beleuchtet. Besonders gut gefallen hat mir ein Vortrag von Jens Südekum, in welchem er deutlich machte, dass die gemeinhin geäußerten Befürchtungen, Roboter würden den Menschen ihre Arbeitsplätze „wegnehmen“, ziemlich aus der Luft gegriffen sind. Ich für meinen Teil habe unter anderem darüber gesprochen, dass Technikethik im Kontext von KI-Systemen weniger bedeutet, die Entwicklung derselben irgendwie in Abgleich zu bringen mit den Grundsätzen klassische Ethiktheorien, sondern dass es vielmehr um Charakterdispositionen geht, mit denen Technikentwickler ausgestattet werden sollten, sodass sie in die Lage versetzt werden, ihre Tätigkeit auch und gerade unter den Bedingungen bedingter Zurechenbarkeit von Verantwortung kritisch zu hinterfragen.

Nochmal künstliche Intelligenz

Das Thema künstliche Intelligenz beschäftigt Politik, Wissenschaft und Wirtschaft zur Zeit gleichermaßen intensiv. Dabei war ich erneut eingeladen, um über ethische Aspekte des Einsatzes und der Entwicklung von KI-Systemen vorzutragen – diesmal beim Industrieausschuss der Industrie- und Handelskammer Region Stuttgart. Mein Eindruck aus der anschließenden Diskussion war, dass insbesondere die Potentiale bei der Technologieentwicklung in China Auslöser von Bedenken sind. Und tatsächlich ist davon auszugehen, dass, sollte einmal so etwas wie eine starke oder generelle künstliche Intelligenz entwickelt werden, dies in China passieren wird – weil dort die größten Datenmengen vorliegen und Datenschutzgesetze rar sind.

Roundtable zum Thema künstliche Intelligenz

Zusammen mit der Rechtswissenschaftlerin Melinda Lohmann und dem Informatiker Sebastian Huhn war ich in Berlin zu einem Roundtable der Stiftung Mercator eingeladen, bei welchem wir mit verschiedenen Vertretern aus der Politik über künstliche Intelligenz und maschinelles Lernen diskutiert haben. Unabhängig von den Überlegungen über potentielle utopische oder dystopische Zukunftsszenarien rund um die vermeintliche Entstehung einer generellen künstlichen Intelligenz war es mir dabei wichtig, zu betonen, dass man sich auf aktuelle und konkrete Probleme rund um spezielle KI-Systeme konzentrieren sollte, da diese bereits schwerwiegende negative Auswirkungen auf die Gesellschaft besitzen.