Recently, I had several opportunities to be interviewed about ChatGPT and GPT-4, the powerful language model from OpenAI. You can read or hear the articles at heise, MDR, SWR, NDR, Süddeutsche Zeitung, FAZ, Wirtschaftswoche, Stimme, Der Standard, taz, rnd, and WELT. I also wrote an article myself.
New paper with Peter Singer on speciesist bias in AI
Somehow, this paper must be something special. It got desk-rejected without review not by one, not by two, but by three different journals! This never happened to me before and I can only speculate about the underlying reasons. However, I am grateful to the editors of AI and Ethics who had the guts to let our research be peer-reviewed and published. But what is it all about? Massive efforts are made to reduce machine biases in order to render AI applications fair. However, the AI fairness field succumbs to a blind spot, namely its insensitivity to discrimination against animals. In order to address this, I wrote a paper together with Peter Singer and colleagues about “speciesist bias” in AI. We investigated several different datasets and AI systems, in particular computer vision models trained on ImageNet, word embeddings, and large language models like GPT-3, revealing significant speciesist biases in them. Our conclusion: AI technologies currently play a significant role in perpetuating and normalizing violence against animals, especially farmed animals. This can only be changed when AI fairness frameworks widen their scope and include mitigation measures for speciesist biases.
PS: I had the opportunity to publish an op-ed article in the German tech magazine Golem as well as a research summary at The AI Ethics Brief regarding the paper.
New papers
Paper #1 – AI ethics and its side-effects (Link)
I wrote a critical article about my own discipline, AI ethics, in which I argue that the assumption that AI ethics automatically decrease the likelihood of unethical outcomes in the AI field is flawed. The article lists risks that either originate from AI ethicists themselves or from the consequences their embedding in AI organizations has. The compilation of risks comprises psychological considerations concerning the cognitive biases of AI ethicists themselves as well as biased reactions to their work, subject-specific and knowledge constraints AI ethicists often succumb to, negative side effects of ethics audits for AI applications, and many more.
Paper #2 – A virtue-based framework for AI ethics (Link)
Many ethics initiatives have stipulated standards for good technology development in the AI sector. I contribute to that endeavor by proposing a new approach that is based on virtue ethics. It defines four “basic AI virtues”, namely justice, honesty, responsibility, and care, all of which represent specific motivational settings that constitute the very precondition for ethical decision-making in the AI field. Moreover, it defines two “second-order AI virtues”, prudence and fortitude, that bolster achieving the basic virtues by helping with overcoming bounded ethicality or hidden psychological forces that can impair ethical decision making and that are hitherto disregarded in AI ethics. Lastly, the paper describes measures for successfully cultivating the mentioned virtues in organizations dealing with AI research and development.
Paper #3 – Ethical and methodological challenges in building morally informed AI systems (Link)
Recent progress in large language models has led to applications that can (at least) simulate possession of full moral agency due to their capacity to report context-sensitive moral assessments in open-domain conversations. However, automating moral decision-making faces several methodological as well as ethical challenges. In the paper, we comment on all these challenges and provide critical considerations for future research on full artificial moral agency.
Science Slam
In 2019, I competed in my first science slam. Then came covid. But finally, public events are possible again. Thus, I had the pleasure to be invited to a slam for the second time. In the end, the clapometer decided on a draw and I could happily share the win with Aysel Ahadova.
Racing is back
Finally, after two years of race cancellations due to Covid, I was able to compete in my first MTB race this year. I finished 1st in my class and 12th overall (280 participants). My aim was to finish in the top 10, but due to an injury that hindered my race preparation, I couldn’t perform at my best. Next time then.
Why some biases can be important for AI
Fairness biases in AI systems are a severe problem (as shown in my paper on “speciesist bias”). However, biases are not bad in and of itself. In our new paper, Sarah Fabi and I stress the actual importance of biases in the field of AI in two regards. First, in order to foster efficient algorithmic decision-making in complex, unstable, and uncertain real-world environments, we argue for the structurewise implementation of human cognitive biases in learning algorithms. Secondly, we argue that in order to achieve ethical machine behavior, filter mechanisms have to be applied for selecting biased training stimuli that represent social or behavioral traits that are ethically desirable.
World record officially confirmed
It took quite some time for Guinness to review all the evidence but now it’s official: I have an entry in the record book, owning an ultracycling record, namely the greatest vertical ascent in 12 hours. It was an incredible undertaking, and I’m really thrilled having achieved this with the help of my wonderful girlfriend, family, and friends.
Blind spots in AI ethics
I wrote a critical piece about my own field of research. It discusses the conservative nature of AI ethics’ main principles as well as the disregarding of negative externalities of AI technologies. The paper was recently published in AI and Ethics and can be accessed here.
Podcast
Recent papers
Recently, three new papers have been published. Together with Kristof Meding, I conducted an empirical study on industry partners in AI research. The study is based on an analysis of nearly 11,000 publications from the most important AI conferences. The paper was published in “AI & Society” and can be read here.
A further paper appeared in “Minds and Machines” in which I argue for providing AI systems only those “environmental stimuli” for training that result in ethically desirable machine behavior. The idea is to overcome the Big Data principle of n=all in order to use new dimensions of data quality to better segregate which datafied behaviors are allowed to become training stimuli for machine learning applications in the first place. The paper can be viewed here.
Another paper I co-authored with my colleague Paula Helm critically addresses AI-based policing software. While predictive policing systems are often studied in this area, we explicitly looked at software used for criminal prosecution. An overview of these and other publications can be found here.
Changes
I decided to change the website. I’ll be switching to English from here on in order to make it more accessible for international visitors.
Weltrekord
Seit Januar war es in Planung, hunderte Stunden hartes Training folgten, und es hat geklappt. Dank zahlreicher Helfer und der Unterstützung von Freunden und Familie konnte ich mir den Traum erfüllen, einen Weltrekord im Radsport zu erlangen. Neben den Distanz- gibt es Höhenmeterrekorde für 12 und 24 Stunden. Ersteren konnte ich nun verbessern – auf 11859 Meter. Das entsprach genau 100 Auf- und Abfahrten an der steilen Schönbuchsteige bei Tübingen, die ich mir für das Projekt ausgesucht hatte. Mehr ging nicht. Es war der härteste Tag, den ich je auf dem Rad hatte. Hier ein Artikel zur Rekordfahrt im SWR Sport, hier ein weiterer Artikel aus dem Tagblatt.
… und hier der Beitrag
Danke an Pirmin Styrnol, der den Beitrag produziert und mich über die vollen 12 Stunden der Rekordfahrt begleitet hat.
Reaktionen
Mein neues Buch “Was sich am Fleisch entscheidet” ist nun seit einiger Zeit erhältlich. Hier einige Reaktionen darauf: In der Schweizer “Blick” erschien ein zweiseitiges Portrait. Ein längere Rezension erschien in der NZZ. Ich selbst durfte einen Gastbeitrag im Mannheimer Morgen verfassen, der sich allerdings hinter einer Paywall befindet. Ein Interview erschien in der österreichischen Kleine Zeitung, ein weiteres Interview in der Zeitung am Samstag, ein weiteres Interview im Quotenmeter, darüber hinaus ein zweiteiliger Blogartikel mit Interview (Teil 1, Teil 2), ebenso wie diverse kleine Rezensionen oder Erwähnungen. Weitere Berichte wurden leider nur in Printausgaben publiziert. Im Radio gab es ebenfalls Interviews.
Ein längerer Podcast befindet sich ebenfalls hinter einer Paywall, hier die Kurzversion:
KI Triage
Zusammen mit Dirk Helbing, Thomas Beschorner, Bruno Frey, Andreas Diekmann, Peter Seele, Sarah Spiekermann, Jeroen van den Hoven und Andrej Zwitter habe ich einen Artikel mitverfasst, der sich aus einer kritischen Perspektive KI-gestützten Bewertungssystemen für die Behandlungsdringlichkeit etwa von Corona-Patienten – kurz KI-Triage – widmet. Der Artikel kann hier nachgelesen werden. Ein entsprechender Forschungsaufsatz findet sich ferner hier.
Neues Buch
Mein neues Buch “Was sich am Fleisch entscheidet” ist erschienen. Es befasst sich mit dem anhaltenden Krisenmodus, in dem sich die Gesellschaft befindet, und zeigt, wie dieser mit einem bislang kaum beachteten Aspekt zusammenhängt, nämlich der gewaltförmigen Beziehung zu Tieren. Anhand von knapp 650 wissenschaftlichen Fachaufsätzen belege ich, welche weitreichenden Implikationen die psychologischen Mechanismen besitzen, die zur anhaltenden Akzeptanz und Unterstützung von industriell organisierter Gewalt gegenüber Tieren führen. Sie reichen von sämtlichen Formen sozialer Diskriminierung über massive Umwelt- und Klimazerstörung bis hin zur aktuellen Coronakrise und vielem mehr. Fakt ist, dass eine von Frieden, gegenseitigem Respekt und Nachhaltigkeit geprägte Gesellschaft ohne die Beendigung der globalen Tierindustrie nicht denkbar ist. Das Buch kann hier (oder bei diversen anderen Händlern) gekauft werden.
Scobel
Zuletzt durfte ich an einem Einspieler (ab 32:33) in der Wissenschaftssendung “scobel” mitwirken. Das Thema der Sendung: Rassismus.
Aktuelle Presse
Zuletzt wurde in diversen Zeitungen eine (stark verkürzte) dpa-Meldung veröffentlicht, in der ich vor KI-gestützter Gesichtsanalyse warne – etwa hier, hier oder hier. Da dies wie Science Fiction klingt und ich mich dabei unter anderem auf eine Forschungsarbeit beziehe, deren Veröffentlichung erst wenige Tage zurück liegt, verlinke ich anbei entsprechende Hintergrundinformationen. Der Aufsatz zur Gesichtserkennung im Hinblick auf die politische Neigung kann hier nachgelesen werden, der Aufsatz zur probabilistischen Detektion der sexuellen Orientierung hier oder, als Replikationsstudie, hier. Weitere Paper gibt es etwa hier oder, als abschreckendes Beispiel für methodisch unzureichende und damit irreleitende Forschung, hier. Aus den Aufsätzen sollte allerdings nicht der Eindruck entstehen, es könnten beliebige Merkmale aus Gesichtern “herausgelesen” werden. Tatsächlich ist es etwa umstritten, wie zuverlässig vergleichsweise einfache Anwendungen wie etwa die Emotionserkennung überhaupt funktionieren, wie in diesem einschlägigen Aufsatz nachgelesen werden kann. Es ist also durchaus kompliziert…
Radiobeiträge
Zuletzt sind einige Radiobeiträge entstanden, an denen ich mitwirken durfte und die ich an dieser Stelle teile. Im SWR2 erschien eine Serie zum Thema “Maschinenmoral”:
Zudem ein kurzes Interview mit dem SWR1:
Und der WDR5 berichtet über “Leitplanken für KI”:
… und hier der Beitrag zur Tour
Danke an alle, die mich unterstützt haben, und insbesondere an Pirmin Styrnol, der den Beitrag produziert hat!