Design und Medienwirkungen bei Social Media Plattformen

Unternehmen wie Facebook, Twitter oder YouTube, welche einschlägige Social-Media-Plattformen betreiben, möchten nach außen hin den Anschein erwecken, ihre Mission bestünde darin, die Welt zu einem besseren Ort zu machen, Menschen zu vernetzen oder ihnen die Möglichkeit zu geben, Ideen oder Informationen zu teilen. Faktisch aber sind die wesentlichen Handlungsziele, welche die genannten Organisationen verfolgen, primär ökonomischer Natur. Demnach richten sich auch die Entscheidungen, welche das Design beziehungsweise die algorithmische Gestaltung der betriebenen Plattformen ausmachen, an ökonomischen Zielgrößen aus. Dies hat aufgrund der immensen Macht, welche die benannten Plattformen beispielsweise über die Gestaltung des öffentlichen Diskurses oder die politische Lage von Gesellschaften haben, in den letzten Jahren zu einigen durchaus als sehr negativ zu bewertenden gesellschaftlichen Entwicklungen geführt, welche es abzuwenden gilt. Um dies zu erreichen, liegt es nahe, das Design der Plattformen zu verändern, sodass sich auch ein anderes Nutzerverhalten manifestieren kann. Dies jedoch bedeutet gleichzeitig, dass bisherige Datenökonomiemodelle gewisse Einschränkungen erfahren. Eine solche Einschränkung ist angesichts der immensen gesamtgesellschaftlichen Medienwirkungen, welche die genannten Plattformen zeitigen, dringend geboten. Wie mit einem verbesserten Plattformdesign aktuelle Probleme rund um digitale soziale Netzwerke adressiert werden können, soll im Folgenden überblicksartig konkretisiert werden.

Welches sind die wesentlichen Designentscheidungen, welche das Nutzerverhalten auf Social-Media-Plattformen prägen? Erstens gilt der Grundsatz, dass die Plattformen ihre Benutzerflächen in einer Weise optimiert haben, dass sie nutzerseitig möglichst viele Interaktionen anregen sollen. Die Hürden oder Hemmschwellen, um auf einer Social-Media-Plattform eine Aktion in Form etwa der Bewertung von Inhalten durch „Reactions“, der Erstellung eines Kommentars oder der Weiterverbreitung von Inhalten durch „Share-Buttons“ auszuführen, sollen möglichst niedrig sein. Zweitens werden durch gezielte Konditionierungen der Nutzer, welche beispielsweise die Gestalt von permanenten visuellen, haptischen oder auditiven „Notifications“ annehmen, hinter denen jeweils „Minibelohnungen“ in Form von Freundschaftsanfragen, „Reactions“ auf eigene Aktivitäten oder einfach nur neue Nachrichten erwartet werden, Abhängigkeiten geschaffen. Drittens werden durch den Einsatz von Verfahren des maschinellen Lernens Informationen durch Algorithmen gezielt so gefiltert, dass Nutzer genau mit solchen Informationen in Kontakt kommen, welche am ehesten zu weiteren Interaktionen führen. Viertens wird die derartige Plattformpersonalisierung kombiniert mit Nudging-Techniken, mit welcher Nutzer „sanft“ dazu bewegt werden, möglichst viel Zeit auf den Plattformen zu verbringen. Dies wird beispielsweise erreicht über die Implementierung einer Autoplay-Funktion bei Videos, durch welche am Videoende automatisiert ein weiteres Video abgespielt wird, oder mithilfe von In-App-Browsern, bei welchen das „Ökosystem“ der jeweiligen Plattform nicht verlassen wird.

Alle genannten Entscheidungen, welche die Ausgestaltung der Algorithmen, der Benutzeroberflächen beziehungsweise des Designs der Plattformen betreffen, dienen einem Ziel, nämlich der Erhöhung der Wahrscheinlichkeit, dass Nutzer möglichst viel Zeit auf den Plattformen verbringen. Dieses Ziel führt wiederum dazu, dass gleichsam die Wahrscheinlichkeit, dass Nutzer mit Werbeanzeigen interagieren, gesteigert wird. Und genau an dieser Stelle greift die ökonomische Logik, welcher die Plattformen nachfolgen.

Welche Konsequenzen aber haben die angesprochenen Designentscheidungen? Hier kann eine ganze Reihe an Phänomenen genannt werden, wie sie in der Captology beziehungsweise dem Persuasive Computing erforscht werden. Die designbasierte Verhaltensbeeinflussung funktioniert in erster Linie darüber, dass Benutzeroberflächen allein für die System-1-Verarbeitung optimiert sind (Kahneman, Schnelles Denken, Langsames Denken, München 2012). Das bedeutet, dass tendenziell schnell ablaufende, emotionale, kognitiv einfache Denkprozesse adressiert werden, welche gleichzeitig für eine Reihe kognitiver Verzerrungen (confirmation bias, third-person-effect, bandwagon effect, authority bias, backfire-effect etc.) anfällig sind. Problematisch ist, dass diese kognitiven Verzerrungen, welche sich in der Art des Nutzerverhaltens manifestieren, über Lernalgorithmen, welche Relevanz bestimmen sollen, „erlernt“ und technisch perpetuiert werden, wodurch etwa Rankings bei Google oder Trends bei Twitter oder YouTube beeinflusst werden. Doch die Übertragung menschlicher Fehlbarkeit in die technische Verfasstheit der Plattformen ist nicht das einzige Problem. Die oben benannten Designentscheidungen wirken sich darüber hinaus fördernd aus auf Aspekte wie die Verbreitung von Fake-News oder Propaganda; auf das Phänomen der Hassrede, der Vernichtung jeglicher streitkulturell gezügelten Diskursführung sowie der politischen Radikalisierung; auf die überproportionale Verbreitung negativer sowie emotional aufgeladener Inhalte; auf die Entwicklung von Filterblasen, welche vermutlich ebenfalls an der Dogmatisierung politischer Debatten mitwirken, und vieles mehr. Diese Medienwirkungen sind freilich nirgends unmittelbar intendiert worden, dennoch sind sie Nebeneffekte des rein auf ökonomische Zielgrößen abgestimmten Designs von Social-Media-Plattformen.

Fakt ist, dass Erkenntnisse über bestimmte Grundmechanismen der menschlichen Psyche instrumentalisiert werden, um Nutzer an die Plattformen zu binden, sodass in letzter Konsequenz die Click-Through-Rate der Werbemaßnahmen gesteigert werden kann und damit möglichst hohe Gewinne erzielt werden können. Es ist also die Datenökonomie, welche Auslöser einer ganzen Reihe an Problemkomplexen ist. Indem jedoch Plattformen wie Google und YouTube, Facebook oder Twitter eine derartige Macht erhalten haben, dass sie fundamentalen Einfluss auf Politik (Epstein, Robert; Robertson, Ronald E. (2015): The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections), den Diskurs der Öffentlichkeit (Lischka, Konrad; Stöcker, Christian (2017): Digitale Öffentlichkeit. Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen. Arbeitspapier) oder das individuelles Wohlergehen (Cramer, Shirley; Inkster, Becky (2017): #StatusOfMind. Social media and young people’s mental health and wellbeing) haben, ist es geboten, die Grundsätzlichkeit des Vorrangs der Datenökonomie einzuschränken. Dies bedeutet, dass Designentscheidungen nicht ausschließlich an ökonomischen Zielgrößen, sondern tatsächlich an den eingangs genannten Mission Statements der Unternehmen ausgerichtet werden müssten.

Wie aber können bessere Designentscheidungen getroffen werden? In erster Linie geht es hier um eine Umgestaltung von Benutzeroberflächen, welche dergestalt sein sollte, dass Interaktionen weniger kognitive Prozesse des System 1, sondern des System 2 anregen. Dies bedeutet, dass eine langsame, tiefergehende und rationalere Auseinandersetzung mit Inhalten stattfindet. Es müssen die Hürden und Hemmschwellen zum Reagieren auf Inhalte sowie zum Kommentieren und Teilen derselben höher werden als bislang. Ein Paradebeispiel für ein solches Abzielen auf System-2-Kognitionen wäre die Maßnahme der Nachrichtenseite NRKbeta, bei welcher Nutzer ein Quiz über den Inhalt von Nachrichtenartikeln beantworten müssen, bevor sie diese kommentieren können. Im Kontext der einschlägigen Social-Media-Plattformen geht es um grundlegendere Änderungen (Rose-Stockwell, Tobias (2018): How to Design Better Social Media). Erstens könnte eine neue Funktionalität des Kommentierens geschaffen werden. Kommentare, welche beleidigend oder äußerst emotional sind, könnten mithilfe des maschinellen Lernens detektiert werden, sodass Nutzer, bevor sie einen entsprechenden Kommentar abschicken, für kurze Zeit eine persistente Meldung angezeigt wird, in welcher sie etwa darauf hingewiesen werden, dass sie möglicherweise einen anderen Menschen verletzen. Zweitens könnten Plattformen eine Funktion dafür bieten, bei welcher Auseinandersetzungen zwischen Nutzer von Kommentarspalten in private Nachrichten verlagert werden, sodass Konflikte nicht öffentlich ausgetragen werden müssen. Drittens könnte beim „Sharen“ darauf hingewiesen werden, welche Personengruppen überhaupt Notiz davon nehmen werden, sodass das Teilen gerade von politischen Inhalten weniger im Sinne einer „Belehrung“ Andersdenkender begriffen wird. Viertens könnten Nutzer mit mehr Einstellungsmöglichkeiten ausgestattet werden, bei denen sie graduell darüber bestimmen, inwiefern ihr News-Feed politische, unterhaltsame, anstößige, konträre, Trends entsprechende oder von Trends abweichende sowie positiv oder negativ emotionale Inhalte priorisiert oder filtert. Fünftens könnten auch über subtile und teils kontraintuitive Designentscheidungen Veränderungen bewirkt werden. Maßnahmen wären hier etwa der stellenweise Einsatz kleinerer oder schlechter lesbarer Schriften, welche eine gewisse geistige Beanspruchung und damit System-2-Kognitionen aktivieren. Auch könnten andere algorithmische Mechanismen der Verteilung von Relevanz gefunden werden, bei denen insbesondere Inhalten, welche negative Emotionen auslösen, weniger Relevanz beigemessen wird. Oder es könnten gezielt Hinweise auf die Wirkweise kognitiver Verzerrungen gegeben werden, sodass Nutzer sich bewusst werden, dass sie möglicherweise Priming-Effekten, Bestätigungsfehlern oder anderen kognitiven Fehlleistungen unterliegen. Eine solche Aufklärung würde möglicherweise ein überwiegend durch System-1 beziehungsweise Intuitionen geleitetes Mediennutzungsverhalten einschränken und zu einem besseren Umgang mit den Plattformen führen.

Derartige Eingriffe in das Design, die Benutzeroberflächen, das Back-End und damit letztlich in das Nutzungserlebnis von Social-Media-Plattformen mögen auf den ersten Blick illegitim erscheinen. Faktisch jedoch findet auch jetzt bereits eine tiefgreifende Beeinflussung statt – und diese wirkt sich, da sie in letzter Konsequenz allein den Grundsätzen der Datenökonomie folgt, vielerorts negativ auf Individuen und Gesellschaft aus. Es geht also lediglich um eine Abwandlung der bereits stattfindenden, massiven Eingriffe in das Nutzungserlebnis. Überdies kann im Zuge dessen überhaupt die Tatsache des Eingriffs transparenter gemacht werden, als dies bislang der Fall ist, indem man Nutzer mehr Einstellungsmöglichkeiten insbesondere für die Gestaltung der zur Anwendung kommenden algorithmischen Informationsfilter bietet. In diesem Sinn sollte ein besseres Design für Social-Media-Plattformen gefunden werden, welches nicht allein dem Ziel der ökonomischen Plattformoptimierung unterliegt, sondern auch dem des Gemeinwohls.