Jahresabschluss

Für den letzten Vortrag in diesem Jahr war ich nochmal in Berlin, um bei der inzwischen achten Ausgabe des „Privacy, Datenschutz & Surveillance“-Workshops zu sprechen. In meinem Vortrag habe ich einmal mehr dafür plädiert, Privatheit als Mechanismus des Identitätsschutzes angesichts aktueller technischer Entwicklungen im Bereich der künstlichen Intelligenz weitestgehend aufzugeben, um stattdessen alles auf die Idee der genuin sozialen (und nicht nur algorithmischen) Diskriminierungsvermeidung zu fokussieren. Einen Konferenzbericht werde ich demnächst hier verlinken.

Relevanzzumessung und kognitive Verzerrungen

Bei der Jahrestagung der Gesellschaft für Wissenschafts- und Technikforschung an der TU Berlin habe ich über den Einfluss kognitiver Verzerrungen auf die Relevanzzumessung bei digitalen sozialen Netzwerken gesprochen. Indem die Benutzeroberflächen jener Netzwerke insbesondere für eine impulsive Form der Mediennutzung optimiert sind, manifestieren sich im Nutzungsverhalten eine Reihe kognitiver Verzerrungen. Zu diesen gehörten beispielsweise der Bestätigungs- sowie der Verfügbarkeitsfehler, der Authority Bias, Third-Person-, Backfire-, Halo-, oder Mitläufer-Effekte und dergleichen mehr. Indem nun prädiktive Systeme in Form von Personalisierungsalgorithmen zum Einsatz kommen, werden in der Vergangenheit gezeigte kognitive Verzerrungen technisch „erlernt“ und verstetigt. Das Maschinenlernen führt so zu einer technischen Aushärtung und „Unsichtbarmachung“ kognitiver Fehlleistungen. In letzter Konsequenz hat dies zur Entstehung einer Reihe an gesellschaftspolitischen Großproblemen geführt, welche von der starken Verbreitung von Fake-News sowie emotional aufgeladenem, extremem Content über die politische Radikalisierung bis hin zur weitreichenden Vernichtung jeglicher streitkulturell gezügelten Diskursführung reichen.


Privatheit in Zeiten lernender Maschinen

Man stelle sich vor, man liefe an einer Überwachungskamera vorbei und eine Software analysierte allein anhand von Gesichtszügen die eigene sexuelle Orientierung, die Neigung zu kriminellen Handlungen, politische Überzeugungen oder wie vertrauenswürdig, dominant oder intelligent man wirkt. Dies klingt wie Science-Fiction. Ist es aber nur bedingt. Denn tatsächlich entstehen durch die Möglichkeiten moderner Technologien des Maschinenlernens beziehungsweise der künstlichen Intelligenz ungeahnte Möglichkeiten der Datenauswertung. Die Gesichtsanalyse ist dabei nur ein Bereich von vielen. „Privatheit in Zeiten lernender Maschinen“ weiterlesen

Machine Learning in Unternehmen

In Berlin war ich im IG-Metall-Haus zu einem Workshop zu Smart Data und künstlicher Intelligenz eingeladen. Im Workshop wurden technische, ökonomische und ethische Aspekte von durch künstliche Intelligenz gestützten Systemen in Unternehmen beleuchtet. Besonders gut gefallen hat mir ein Vortrag von Jens Südekum, in welchem er deutlich machte, dass die gemeinhin geäußerten Befürchtungen, Roboter würden den Menschen ihre Arbeitsplätze „wegnehmen“, ziemlich aus der Luft gegriffen sind. Ich für meinen Teil habe unter anderem darüber gesprochen, dass Technikethik im Kontext von KI-Systemen weniger bedeutet, die Entwicklung derselben irgendwie in Abgleich zu bringen mit den Grundsätzen klassische Ethiktheorien, sondern dass es vielmehr um Charakterdispositionen geht, mit denen Technikentwickler ausgestattet werden sollten, sodass sie in die Lage versetzt werden, ihre Tätigkeit auch und gerade unter den Bedingungen bedingter Zurechenbarkeit von Verantwortung kritisch zu hinterfragen.