Meine kleine Welt

Statt dem vielbeschworenen globalen Dorf ähnelt die Netzwelt eher einem Flickenteppich aus Kleinstaaten und maßgeschneidertem Content. Svenna Triebler über den algorithmeninduzierten Tunnelblick namens »Filter Bubble«.

Menschen sind soziale Wesen. Paradoxerweise resultieren daraus etliche Eigenschaften, die ihnen die Verständigung untereinander oft eher erschweren.
Zum einen neigen sie zur Rudelbildung: Während so etwas auf dem Fußballplatz üblicherweise schnell durch den Schiedsrichter unterbunden wird, ist es im übrigen Leben die Regel: Schon auf den Rängen drumherum findet das altbekannte »Wir gegen die« statt, das sich - zumeist in blutigerer Form - durch die Menschheitsgeschichte zieht.
Eng damit verbunden ist der Drang zum Konformismus. Man macht sich halt nicht gerne zum Außenseiter, selbst wenn man weiß, dass man recht hat: So setzten Psychologen in einem Experiment mehreren Gruppen von Vierjährigen Bilderbücher vor, die Kleinen sollten berichten, was auf den Seiten zu sehen war. Allerdings bekam jeweils eines der Kinder, ohne es zu ahnen, ein Buch mit abweichenden Abbildungen untergemogelt - in den meisten Fällen schlossen sich die derart Angeschmierten wider besseres Wissen der Mehrheitsmeinung an. (Glücklicherweise ist die Neigung, mit dem Strom zu schwimmen, offensichtlich nicht bei allen Leuten gleich stark ausgeprägt. Sonst wäre die Welt nicht nur ein noch deprimierenderer Ort als ohnehin schon, es wäre wohl auch nie jemand auf Gedanken gekommen wie etwa: »Was, wenn sich die Erde um die Sonne dreht und nicht umgekehrt?« oder »Wie wär‘s, wenn wir es mal mit dieser Demokratie probieren?«)
Und dann gibt es da noch die selektive Wahrnehmung beziehungsweise den Bestätigungsfehler, der hier im weiteren Verlauf als Pippi-Langstrumpf-Prinzip bezeichnet werden soll (»Wir machen uns die Welt, wie sie uns gefällt«). Will heißen, wer einmal eine Meinung zu irgendeinem Thema gefasst hat, lässt tendenziell nur Informationen an sich heran, die diese Überzeugung stützen, während Dinge, die nicht ins Weltbild passen, geflissentlich ignoriert oder als Propaganda abgetan werden. Wer etwa Anhängern der Homöopathie Studien vorlegt, die zeigen, dass Zuckerkügelchen ohne Wirkstoff - welch Überraschung - keinerlei über den Placebo-Effekt hinausgehenden Wirkungen haben, wird sich in 99 Prozent aller Fälle anhören dürfen, dass dahinter doch die Pharmalobby stecke.

All dies zusammen hilft zu erklären, wie Menschengruppen ticken - von der Schulclique mit dem gemeinsamen Musikgeschmack bis hin zu Religionsgemeinschaften und Nationen mit den ihnen zugrundeliegenden Ideologien. Natürlich kann eine Gesellschaft auch Pluralismus und Weltoffenheit zu ihren gemeinsamen Grundprinzipien erklären (das scheint in der letzten Zeit ein wenig aus der Mode gekommen zu sein, aber die Autorin dieser Zeilen erinnert sich noch daran, dass dies eigentlich sogar die Hauptlektion ihrer gesamten Grundschulzeit war). Zudem trifft man in der analogen Welt ganz automatisch hin und wieder auf Menschen und Ideen außerhalb des eigenen sozialen Dunstkreises, was wenigstens potentiell die Möglichkeit bietet, das eigene Weltbild auf den Prüfstand zu stellen. Was ja trotz Pippi-Langstrumpf-Prinzip auch immer wieder geschieht, wie zum Beispiel Untersuchungen zeigen, nach denen Rassismus in Regionen mit hohem migrantischen Bevölkerungsanteil weniger verbreitet ist als in Gegenden, deren Bewohner womöglich noch nicht einmal die Gelegenheit hatten, sich auch nur etwa mit der griechischen Küche vertraut zu machen.

Vom Internet hatte man sich erhofft, die weltweite Vernetzung würde den geistigen Horizont seiner Nutzer ebenfalls erweitern, und in vielen Fällen geschieht dies sicherlich auch. Typisch ist allerdings eher die gegenteilige Entwicklung: Statt dem vielbeschworenen »globalen Dorf« ähnelt die Netzwelt eher einem Flickenteppich aus Kleinstaaten, deren Bewohner nicht viel voneinander mitbekommen oder aber, wenn sie doch mal aufeinandertreffen, sich gegebenenfalls erbittert bekämpfen.
Das liegt zum einen an den Nutzern selbst, die sich je nach persönlichen Interessen in ihren jeweils dazu passenden digitalen Nischen zusammenfinden. Klar, wer sich nicht für Modelleisenbahnen interessiert, wird nicht unbedingt geneigt sein, der Facebookgruppe »Märklin Ultras« beizutreten, und all die unzähligen Youtube-Kanäle, in denen die Existenz von Außerirdischen »bewiesen« wird, finden ihr Publikum nun einmal hauptsächlich unter Leuten, die nicht mehr alle fliegenden Untertassen im Schrank haben.
Nun ist gegen den Austausch über Hobbybasteleien nichts einzuwenden (vorausgesetzt, die Begeisterung führt nicht zu familiären Konflikten), und so lange sich die Ufologen nicht gegenseitig zum Massensuizid oder anderen unbedachten Taten hochschaukeln, darf man die meisten wohl in die Kategorie »größtenteils harmlos« einordnen.
Von hier ist es allerdings schon nicht mehr weit zu rechten Verschwörungsseiten, auf denen sich auch weitaus bedrohlichere Zeitgenossen zusammenfinden, die an ihr ohnehin schlecht gelüftetes Oberstübchen sonst nichts weiter heranlassen außer den Hetzseiten von »PI-News« und »Pegida« samt den Links mit dem gleichen unangenehmen Stallgeruch, die dort wiederum verbreitetet werden. Selten war so einfach, sich ein geschlossenes, man kann auch sagen: vernageltes Weltbild zuzulegen wie seit der Erfindung von Facebook & Co., und es verwundert nicht, dass gerade das Feindbild der »Lügenpresse« sich in diesem Hassbürgermilieu so großer Beliebtheit erfreut.
Nun kann sich freilich jeder selbst entscheiden, beispielsweise Greuelmärchen über Asylsuchende weiterzuverbreiten, wie sie derzeit in großer Zahl im Netz kursieren, oder aber stattdessen lieber niedliche Katzenvideos zu gucken; allein »dem Internet« die Schuld an der Herausbildung solcher toxischen Biotope zu geben, wäre allein schon deshalb zu kurz gegriffen.

Man kann die Technik aber auch nicht völlig davon freisprechen, der Entwicklung von digitalen Parallelgesellschaften Vorschub zu leisten. Maßgeschneiderter Content, erstellt anhand der Analyse des Nutzerverhaltens, begegnet uns längst allenthalben: Wenn ich beispielsweise »b-u-n« in die Suchzeile eintippe, weiß Google, dass ich vermutlich nicht am Bundestag, sondern an den Ergebnissen der Fußball-Bundesliga interessiert bin; Youtube, ebenfalls zu Google gehörend, muss dagegen vielleicht noch etwas üben: Die Algorithmen der Videoplatt-form registrieren zwar, dass ich häufig Filmchen mit Weltraumthemen schaue, nicht aber mein verständnisloses Kopfschütteln, wenn mir daraufhin wieder einmal eines jener erwähnten Ufo-Videos vorgeschlagen wird.
Auf Facebook wiederum bekommen die User längst nicht alles zu sehen, was ihre virtuellen Freunde so posten; Vorfahrt haben Inhalte, die ohnehin schon beliebt sind und den mutmaßlichen Interessen des jeweiligen Nutzers entsprechen. Versucht man also schon selbst bewusst, nicht dem Pippi-Langstrumpf-Prinzip zu erliegen, und zählt deshalb beispielsweise auch Accounts von Politikern zu seinen Kontakten, deren Positionen man nicht teilt, scheinen diese aus Sicht des Users nach und nach zu verstummen, weil man ihre Beiträge nicht mit »Gefällt mir« markieren mag. Es wird geschätzt, dass man auf diese Weise höchstens zehn Prozent der Nachrichten seiner Kontakte überhaupt präsentiert bekommt.
Der US-amerikanische Politaktivist und Autor Eli Pariser hat dem Phänomen des algorithmeninduzierten Tunnelblicks mit seinen Buch »Filter Bubble« einen Namen gegeben. Ob die von Facebook getroffene Vorauswahl tatsächlich zur Bildung solcher »Filterblasen« beiträgt, wird allerdings - nicht zuletzt vom Social-Media-Platzhirsch selbst - bestritten, der deshalb Forscher seines eigenen »Data Teams« beauftragte, sich das Ganze einmal anzusehen. Gerne wollte man die im Mai dieses Jahres veröffentlichten Ergebnisse als Entwarnung deuten: Immerhin war das Spektrum der angezeigten In halte breiter gefächert als anhand der von den Usern angegebenen politischen Meinung zu erwarten, missliebige Posts wurden jedoch meist einfach nicht angeklickt.
Allerdings bestätigen die Forscher selbst, dass der Algorithmus zu einer einseitigen Auswahl führt. Welche Meldungen die Nutzerin ganz oben angezeigt bekommt, entscheidet sich eben nach deren Interaktionen, ohne das Ranking bekämen sie also mehr Posts gezeigt, deren politische Ausrichtung sie nicht teilt. Überdies sind sich die meisten Leute nicht einmal bewusst, dass sie eine gefilterte Realität vorgesetzt bekommen.
Das immerhin dürfte wenigstens denjenigen klar sein, die derzeit die Beta-Version von »Upday« testen, eine vom Axel-Springer-Konzern und dem Handyhersteller Samsung ins Leben gerufene Medienplattform, die explizit mit algorithmusbasierten, »auf die individuellen Nutzerinter-essen zugeschnittenen« Nachrichteninhalten wirbt. Als wären die Produkte des deutschen Verlagshauses nicht so schon einseitig genug.
Aber gefilterte Informationen sind vielleicht erst der Anfang: Mit dem »Internet der Dinge« könnte der nächste Schritt in der Entwicklung der sich selbst programmierenden Gesellschaft vor der Tür stehen. Schon jetzt lassen sich Menschen von ihren Fitnessarmbändern herumkommandieren, und wenn sich das »Smart Home« als das nächste große Ding durchsetzt, als das es gepriesen wird, wird es nicht mehr lange dauern, bis der Kühlschrank anhand unserer mutmaßlichen Vorlieben selbsttätig die Einkäufe bestellt (und/oder seinen Besitzer auf dessen Cholesterinwerte hinweist, wenn zu viel Fertigpizza dabei ist) und die Waschmaschine einen informiert, dass man im Unterwäscheverbrauch unterhalb der gesellschaftlich akzeptierten Norm liege. Während einen das einen das selbstfahrende Auto auf dem für Montag bis Freitag einprogrammierten Kurs von der Wohnung zum Arbeitsplatz und wieder zurück befördert, könnte man dann in aller Muße darüber nachdenken, wo eigentlich die Grenze zwischen Entscheidungsfreiheit und Bequemlichkeit liegt.

Zurück zur Ausgabe: 
#108
10

& Drupal

Versorgerin 2011

rss