Trolle in der Filterblase

„[…] profiles will begin to normalize the population from which the norm is drawn. The observing will affect the observed. The system watches what you do; it fits you into a pattern; the pattern is then fed back to you in the form of options set by the pattern; the options reinforce the pattern; the cycle begins again.“ (Lessig, Code. Version 2.0, New York 2006)

Auf den einschlägigen Internetplattformen selegieren Algorithmen, mit welchen Sinnangeboten Nutzer in Kontakt kommen und mit welchen nicht. Die Entscheidung darüber, mit welchen Informationen, Posts oder Nachrichten Nutzer bei der Google-Suche, im Newsfeed bei Facebook, den Kaufvorschlägen bei Amazon, den Meldungen bei den Yahoo News etc. konfrontiert werden, hängt von vergangenem Surfverhalten ab, von ermittelten Interessen, von ideologischen Ausrichtungen und weiteren personenbezogenen Eigenschaften. Durch jene als digitale Gatekeeper fungierenden Algorithmen kann das Risiko, mit unerwünschten Informationen in Kontakt zu kommen, reduziert werden. Tatsächlich aber ist dieses Risiko eines, welches gezielt gesucht und erhöht werden sollte. Alsbald nämlich die Algorithmen zur Personalisierung eine stabile Filterblase (Pariser, The Filter Bubble, New York 2011) erschaffen haben, in welche nur noch solche Meinungen und solche Informationsbündel es schaffen, einzudringen, welche bereits dem bestehenden persönlichen Welt- und Meinungsbild entsprechen, kann dieses gleichsam nicht mehr durch neue Sinnangebote herausgefordert, reflektiert und damit möglicherweise korrigiert werden. Die Filterblase bedingt, dass Mechanismen zur Ideologie- und Weltbildkorrektur abhandenkommen. Sobald Nutzer sich in dem ideologischen Ökosystem ihrer personalisierten Webumgebung niedergelassen haben, hindern die Filtermechanismen der Personalisierungs-Algorithmen alternative Meinungsfronten und ideologische Ansichten daran, in die Filterblase eindringen zu können. Unabhängig nun von der in den Medienwissenschaften hitzig geführten Diskussion darüber, wie stark die Effekte sind, welche die Filterblase zeitigt, muss in den Blick geraten, dass es ausgerechnet Trolle sind, welche als Filterblasenherausforderer auftreten. Trolle residieren in den Filterblasen unbedarfter Internetnutzer, welche von einer gewissen entspannten Natürlichkeit der Kommunikationssituation in ihrer Blase ausgehen, und konfrontieren diese mit radikal nonkonformen Sinnangeboten. Trolling profitiert von den Filterblasen-Effekten, von der Tatsache, dass in den Kommentarspalten ideologisch gepolter Online-Milieus stets Konsens herrscht. Der Troll erzeugt radikale Dissense – und erfreut sich an den von ihm initiierten Empörungsreaktionen auf seine geäußerten Provokationen. Auf diese springt immer jemand an.

„When you see a troll, don’t feed it“, warnt jedoch bekanntlich Jarvis. „They come into online conversations solely to provoke. Respond, and you give them what they want: attention and an opportunity to keep the attack going.“ (Public Parts, New York 2011)

Offensichtlich jedoch ist diese gut gemeinte Warnung noch nicht handlungswirksam in die Mediennutzungspraxis durchschnittlicher Internetnutzer eingegangen. Und dies ist ja auch zu begrüßen, schließlich verlören andernfalls Trolle ihre Funktion als Akteure, welche für die Produktion radikal non-konformer Sinnangebote in der Filterblase sorgen. Trolle wissen um die Existenz personalisierter Webumgebungen. Je „heimeliger“ eine solche Umgebung Internetnutzer beherbergt, desto lohnenswerter sind sie als Angriffsziel für Trolle. Sie sind die zynischen Pädagogen des Internets.