Beneficial AI

Ich habe einen Aufsatz geschrieben, wie man einem KI-System nur diejenigen „Umweltreize“ zum Training geben kann, die zu einem ethisch wünschenswerten Maschinenverhalten führen. Die Idee ist, vom Big-Data-Grundsatz n = all wegzukommen, um durch neue Dimensionen von Datenqualität stärker zu selegieren, welches datafizierte Verhalten überhaupt zu Trainingsstimuli für Anwendungen des maschinellen Lernens zugelassen wird. Der Aufsatz kann als Preprint hier eingesehen werden.

No Access statt Open Access

Ein neuer Aufsatz von mir ist erschienen. Er kann unter diesem Link eingesehen werden. Der Aufsatz ist eine Antwort auf aktuelle Forderungen zu veränderten Publikationsnormen in der Forschung zu Anwendungen des maschinellen Lernens, welche ein erhöhtes Dual-Use-Potential besitzen. Im Aufsatz argumentiere ich, dass Publikationsrestriktionen, wie sie bereits in der IT-Sicherheits- oder der Biotechnologieforschung verankert sind, sich ebenfalls im Bereich des maschinellen Lernens etablieren und anstelle einer generellen Mentalität des Open Access treten müssen. Zweck dieser Restriktionen wäre es, Missbrauchsszenarien beispielsweise bei der KI-gestützten Audio-, Video- oder Texterzeugung, bei Persönlichkeitsanalysen, Verhaltensbeeinflussungen, der automatisierten Detektion von Sicherheitslücken oder anderen Dual-Use-Anwendungen einzudämmen. Im Aufsatz nenne ich Beispiele für bereichsspezifische Forschungsarbeiten, die aufgrund ihres Gefahrenpotentials nicht oder nur teilweise veröffentlicht wurden. Zudem diskutiere ich Strategien der Governance jenes „verbotenen Wissens“ aus der Forschung.

Radiobeitrag

Neulich wurde ich zur Frage interviewt, welches Wissen man eigentlich sinnvollerweise aus einem KI-System gewinnen kann und welches nicht. In der nun ausgestrahlten Sendung im Deutschlandfunk sind leider nur noch kleine Fragmente des Interviews enthalten. Insbesondere geht es darin um Systeme des maschinellen Lernens, die dazu eingesetzt werden, um vermeintlich kriminelle Neigungen anhand von Gesichtszügen zu erkennen. Die Seite zu Sendung kann hier eingesehen oder der Beitrag nachfolgend angehört werden.

Industriepartner in der KI-Forschung

In Tübingen insbesondere wird aufgrund des Cyber Valleys seit vielen Monaten lebhaft über die Rolle von Industriepartnern in der KI-Forschung diskutiert. Doch eine systematische, allgemeine Untersuchung des Feldes fehlt – bis jetzt. Zusammen mit Kristof Meding habe ich ein Paper geschrieben, das das Verhältnis zwischen Industrie- und öffentlicher KI-Forschung untersucht, anhand einer Auswertung von knapp 11.000 Papern Interessenkonflikte beleuchtet und weitere Bereiche wie etwa die Frage nach den Treibern wissenschaftlichen Fortschritts analysiert. Der Aufsatz, der einige wirklich interessante Erkenntnisse enthält, kann als Preprint hier eingesehen werden. Eine Kurzpräsentation der Ergebnisse gibt es ferner hier.

Neues

Warum es auf meiner Webseite zuletzt etwas ruhig geworden ist, dürfte nicht viel Erklärung brauchen. Der durch die Corona-Krise bedingte Wegfall von öffentlichen Veranstaltungen beeinflusst auch meine Tätigkeiten. Was gibt es dennoch Neues? Mehrere Aufsätze sind in der Mache, ich habe an einem Report über die praktische Umsetzung von KI-Ethik mitgewirkt sowie an einem weiteren Report über KI Governance und ein Artikel über wissenschaftsethische Überlegungen zur KI-Forschung erschien auf golem.de.

Neuer Aufsatz

In „Minds and Machines“ ist jüngst mein Aufsatz „The Ethics of AI Ethics“ erschienen, in welchem ich eine Zusammenfassung und normative Analyse von Richtlinien zur KI-Ethik sowie eine generelle Kritik des damit verbundenen Diskurses durchgeführt habe. Der Aufsatz kann unter folgendem Link nachgelesen werden.

Nurturing AI – Utilizing developmental psychology for beneficial AI

In a recent seminal paper on machine behavior, Rahwan et al. (2019) stress that ML applications “cannot be fully understood without the integrated study of algorithms and the social environments in which algorithms operate.” This essay aims to tentatively address this demand by using theories and insights from developmental psychology (as well as related scientific disciplines such as pedagogics or sociology) to assess environmental influences, which shape AI applications.

„Nurturing AI – Utilizing developmental psychology for beneficial AI“ weiterlesen

Klickarbeit

In diesem Jahr hatte ich bereits einiges Pech bei der Zusammenarbeit mit Medien. Ein Beispiel: Das Magazin „Technology Review“ sagte mir vor vielen Monaten, als das Thema noch kaum präsent war, zu, einen Text über prekäre Labelarbeit im Kontext der Entwicklung von KI-Systemen zu veröffentlichen. Als der Text dann im Juli endlich erscheinen sollte, wird das Thema plötzlich an eine Journalistin abgegeben, die einen neuen Artikel schreibt. In diesem sind zwar noch Interviewschnipsel von mir erhalten, mehr aber nicht. Der Artikel kann hier (kostenpflichtig) nachgelesen werden. Meinen ursprünglichen Text gibt’s in meinem Blog.

Vom Rückgrat der künstlichen Intelligenz

Es gibt Fälle, da instrumentalisieren große IT-Unternehmen Milliarden von Computernutzern, um für sich Arbeit zu leisten. Die Arbeit besteht dabei zumeist aus sogenannten „micro tasks“. Die Abarbeitung derselben erfolgt ohne Entlohnung und häufig ohne Wissen der Betroffenen. Ein Beispiel, an welchem sich dies veranschaulichen lässt, ist der Dienst reCAPTCHA von Google. Zum Einsatz kommen reCAPTCHA etwa dann, wenn man sich bei Onlinediensten anmelden oder Onlineformulare ausfüllen will. Hierbei stoßt man früher oder später auf eine Eingabemaske, in welcher verzerrte Buchstaben erkannt, Straßen- oder Hausschilder korrekt identifiziert oder andere Abbildungen indexiert werden müssen. Die reCAPTCHA dienen der Abwehr von Bots, da die gestellten Miniaufgaben in der Regel nicht automatisiert von Computern gelöst werden können. Dies ist zumindest der vorgeschobene Grund. Faktisch jedoch dienen reCAPTCHA primär dazu, Computern dabei zu helfen, nicht eindeutig erkennbare Buchstaben, Hausnummern oder Straßennahmen aus dem Google Books Projekt sowie Google Street View digital zu erfassen. Somit wirken zahllose Mediennutzer, indem sie reCAPTCHA lösen, an der Verbesserung von Text- und Bilderkennungssoftware mit. Und dies zumeist, ohne es zu wissen.

„Vom Rückgrat der künstlichen Intelligenz“ weiterlesen

Neuer Aufsatz

Zuletzt erschien im Journal „Ethics and Information Technology“ mein neues Paper „From privacy to anti-discrimination in times of machine learning“. Das Paper liegt mir besonders am Herzen, da es versucht, zu zeigen, warum die Idee der informationellen Privatheit angesichts von Technologien wie dem maschinellen Lernen nahezu obsolet ist – ein Gedanke, der in der Privacy-Forschung häufig nicht zugelassen wird – und wir andere Formen des Identitätsschutzes gesellschaftlich etablieren müssen. Der Artikel kann hier (mit Uni-VPN) oder hier (ohne Uni-VPN) nachgelesen werden.

Wettkampf oder Kooperation

Für den Webauftritt des Wissenschaftsjahres 2019 zum Thema künstliche Intelligenz habe ich einen kurzen Artikel über die Rhetorik und Rahmung der entsprechenden Technikentwicklung geschrieben, der bei Interesse hier nachgelesen werden kann.

AI Governance

An der Universität in Hongkong wurde jüngst eine Konferenz zur Ethik und Governance von KI-Systemen veranstaltet, zu der ich eingeladen wurde. Im Sinne der Bewahrung einer guten Klimabilanz habe ich den Vortrag allerdings per Skype gehalten. Es war dennoch schön, virtuell bei der Konferenz dabei zu sein. Ein Ergebnis derselben ist zudem ein Übersichtspaper über verschiedene AI Governance Initiativen, an dem ich mitgewirkt habe. Der Text ist als Preprint verfügbar oder kann über folgenden Link eingesehen werden.

Besuch am CERN

Zuletzt wurde ich nach Genf eingeladen, um bei einer Konferenz über Big Data in der Medizin zum Thema KI-Ethik vorzutragen. Obwohl die Konferenz am CERN stattfand, wurde ich nicht von einem schwarzen Loch eingesaugt. Demnächst wird ein White Paper zur Konferenz erscheinen, dass ich an dieser Stelle verlinken werde.


Vortrag über Datenarbeit

Bei der Jahrestagung der Schweizerischen Gesellschaft für Kommunikations- und Medienwissenschaft – diesmal fand sie im schönen St. Gallen statt – habe ich über das Phänomen vorgetragen, dass Nutzer digitaler Medien zur „Datenarbeit“ genötigt werden, indem sie durch unscheinbare Microtasks – etwa indem sie Mails als Spam markieren, reCAPTCHA lösen, Bilder markieren, Übersetzungen verbessern etc. – unwissend Systeme der künstlichen Intelligenz verbessern. Faktisch ist die Intelligenz von Maschinen in weiten Teilen eine Akkumulation von durch Menschen gelösten kognitiven Kleinstaufgaben. Die beschriebenen Sachverhalte habe ich im Vortrag insbesondere aus einer gerechtigkeitstheoretischen Perspektive bewertet und dabei problematisiert, dass es großen IT-Unternehmen weitgehend unbemerkt gelungen ist, ein kapitalistisches Verwertungsgeschehen auf undurchsichtige und zumeist nicht-entlohnte Datenproduktions- und Indexierungsarbeiten auszudehnen.


Neuer Aufsatz – What AI (currently) can’t do

In AI & Society erschien jüngst mein neuer Aufsatz über aktuelle Limitationen und Herausforderungen bei der Entwicklung und Anwendung künstlicher Intelligenz. Der Aufsatz beschreibt in einer Übersicht fünfzehn verschiedene Bereiche, in denen methodologische, gesellschaftliche oder technologische „shortcomings“ aktueller KI-Technologie situiert sind. Eingesehen werden kann das Paper unter diesem Link.

Übersichtsartikel zur Ethik der künstlichen Intelligenz

Angesichts der Vielzahl an Richtlinien zur Ethik der künstlichen Intelligenz beziehungsweise des maschinellen Lernens habe ich einen Übersichtsartikel geschrieben, in dem ich die Richtlinien miteinander vergleiche, Gemeinsamkeiten herausarbeite, aber auch Leerstellen benenne und reflektiere, welcher Typus von Ethiktheorie jeweils verfolgt wird. Letztlich beschreibe ich auch, inwiefern die Richtlinien in der Praxis umgesetzt werden können. Das Paper ist bei arXiv als Preprint erschienen, kann unter diesem Link eingesehen werden und ist von der Technology Review zu den „most thought-provoking papers“ der dritten Märzwoche gerechnet worden. Anbei zudem das „Herzstück“ des Papers, die tabellarische Übersicht über die Ethik-Richtlinien und ihre einzelnen Aspekte.


Jahresabschluss

Für den letzten Vortrag in diesem Jahr war ich nochmal in Berlin, um bei der inzwischen achten Ausgabe des „Privacy, Datenschutz & Surveillance“-Workshops zu sprechen. In meinem Vortrag habe ich einmal mehr dafür plädiert, Privatheit als Mechanismus des Identitätsschutzes angesichts aktueller technischer Entwicklungen im Bereich der künstlichen Intelligenz weitestgehend aufzugeben, um stattdessen alles auf die Idee der genuin sozialen (und nicht nur algorithmischen) Diskriminierungsvermeidung zu fokussieren. Einen Konferenzbericht werde ich demnächst hier verlinken.

Relevanzzumessung und kognitive Verzerrungen

Bei der Jahrestagung der Gesellschaft für Wissenschafts- und Technikforschung an der TU Berlin habe ich über den Einfluss kognitiver Verzerrungen auf die Relevanzzumessung bei digitalen sozialen Netzwerken gesprochen. Indem die Benutzeroberflächen jener Netzwerke insbesondere für eine impulsive Form der Mediennutzung optimiert sind, manifestieren sich im Nutzungsverhalten eine Reihe kognitiver Verzerrungen. Zu diesen gehörten beispielsweise der Bestätigungs- sowie der Verfügbarkeitsfehler, der Authority Bias, Third-Person-, Backfire-, Halo-, oder Mitläufer-Effekte und dergleichen mehr. Indem nun prädiktive Systeme in Form von Personalisierungsalgorithmen zum Einsatz kommen, werden in der Vergangenheit gezeigte kognitive Verzerrungen technisch „erlernt“ und verstetigt. Das Maschinenlernen führt so zu einer technischen Aushärtung und „Unsichtbarmachung“ kognitiver Fehlleistungen. In letzter Konsequenz hat dies zur Entstehung einer Reihe an gesellschaftspolitischen Großproblemen geführt, welche von der starken Verbreitung von Fake-News sowie emotional aufgeladenem, extremem Content über die politische Radikalisierung bis hin zur weitreichenden Vernichtung jeglicher streitkulturell gezügelten Diskursführung reichen.


Privatheit in Zeiten lernender Maschinen

Man stelle sich vor, man liefe an einer Überwachungskamera vorbei und eine Software analysierte allein anhand von Gesichtszügen die eigene sexuelle Orientierung, die Neigung zu kriminellen Handlungen, politische Überzeugungen oder wie vertrauenswürdig, dominant oder intelligent man wirkt. Dies klingt wie Science-Fiction. Ist es aber nur bedingt. Denn tatsächlich entstehen durch die Möglichkeiten moderner Technologien des Maschinenlernens beziehungsweise der künstlichen Intelligenz ungeahnte Möglichkeiten der Datenauswertung. Die Gesichtsanalyse ist dabei nur ein Bereich von vielen. „Privatheit in Zeiten lernender Maschinen“ weiterlesen

Gesellschaftspolitische Aspekte des Maschinenlernens

In Schwäbisch Gmünd sprach ich zuletzt vor Mitarbeitern des Baden-Württembergischen Innenministeriums über gesellschaftspolitische und technikethische Implikationen des maschinellen Lernens. Die gesellschaftlichen Folgen des Technikeinsatzes sind umfassend – sie reichen von durch Social-Media-Plattformen geförderten politischen Radikalisierungsprozessen über algorithmische Diskriminierung bis hin zu neuartigen militärischen Bedrohungsszenarien. Das Thema ist und bleibt hochrelevant.