Gefangen in der Filter­blase

Datum
28. September 2016
Autor*in
Sabrina Winter
Redaktion
politikorange
Thema
#Zeitungskongress 2016
Medienwirklichkeit_Startseite

Medienwirklichkeit_Startseite

Jonas Walzberg

Medien beein­flussen die Meinungs­bil­dung maßgeb­lich. Aber was, wenn wir gar nicht mehr selbst bestimmen, was wir lesen, sondern ein Algo­rithmus? Das kann gravie­rende Folgen haben. Tobias Bayer und Sabrina Winter sind der Sache auf die Spur gegangen. 

Medienwirklichkeit_MiriamMeckel_Beitrag

Miriam Meckel, Chefredakteurin der Wirtschaftswoche, spricht auf dem BDZV-Zeitungskongress zum Thema Medienwirklichkeit.  Foto: Jonas Walzberg

Der Chatbot Tay ist eine fröh­liche Teen­agerin gewesen. Sie twit­terte Hallo Welt“ und fand Menschen super­cool“. Doch das änderte sich schnell. Inner­halb kurzer Zeit wurde sie zu einer rassis­ti­schen, sexis­ti­schen, selbst­ge­rechten Fana­ti­kerin, die ihre Verrückt­heit in die Welt hinaus tweetete. Unter anderem schrieb sie auf Twitter: bush did 9/11 and Hitler would have done a better job than the monkey we have now. Donald trump is the only hope we‚ve got „. Tay lebte keine 24 Stunden. Micro­soft schal­tete sie aus, als sie sich anti­se­mi­tisch äußerte. Denn Tay war ein Chatbot, der sich auf Twitter mit Menschen unter­halten hat. So wurde sie im Internet zur Rassistin sozia­li­siert.

Im Tunnel der Bestä­ti­gung

Bei Tay hat die Technik ihren Meinungs­bil­dungs­pro­zess unglaub­lich beschleu­nigt. Doch der Chatbot zeigt, was passiert, wenn man sich immer mit den glei­chen Meinungen umgibt. Dann schafft sich jeder seine Wirk­lich­keit selbst. Miriam Meckel, Chef­re­dak­teurin der Wirt­schafts­woche, refe­rierte auf dem BDZV-Zeitungs­kon­gress zum Thema Medi­en­wirk­lich­keiten – Wie entstehen poli­ti­sche Welt­bilder?“. Sie sagte: Im Internet ist es nicht selbst­ver­ständ­lich, dass man sich mit Gegen­ar­gu­menten ausein­an­der­setzen muss.“ Das führe zu einem Tunnel der selbst­ver­stär­kenden Bestä­ti­gung.

Natür­lich ist es ange­nehmer Artikel zu lesen, in denen die eigene Meinung bestä­tigt wird. Wer hat sich beim Stöbern in Face­book nicht schon mal gedacht: Das ist ja wie für mich geschrieben. Was für ein Zufall, dass das ganz oben steht.“ Aber Zufall ist das nicht. Denn es wurde speziell für den jewei­ligen Nutzer ausge­wählt. Mithilfe von Algo­rithmen ist das für Unter­nehmen ein Kinder­spiel. Dabei gibt es unter­schied­liche Systeme. Etwa die Filter­blase, bekannt und geprägt durch den US-ameri­ka­ni­schen Jour­na­listen und Schrift­steller Eli Pariser. Dieses Konzept führt dazu, dass man immer wieder sehr ähnliche Infor­ma­tionen ange­zeigt bekommt, die man vorher geliked, geteilt hat. So ist eine Hori­zont­er­wei­te­rung nahezu unmög­lich.

Eine andere Möglich­keit ist die Unter­tei­lung in Kästen, in denen Nutzer grup­piert werden. Meist über­schneiden sich die Inter­essen der User inhalt­lich. Dann kommen sie in den glei­chen Kasten. Bei dieser Eintei­lung sind nicht alle an erster Stelle ange­zeigten Infor­ma­tionen für den Nutzer zwangs­läufig inter­es­sant – auch wenn es im Ideal­fall so sein sollte. Unter­nehmen nutzen unter­schied­liche Konzepte, um ihre Nutzer einzu­ordnen. Proble­ma­tisch ist, dass kaum ein Unter­nehmen sein Konzept komplett durch­leuchtbar machen möchte.

Die Mecha­nismen im Internet verstehen

Algo­rithmen verän­dern also die Meinungs­bil­dung und damit die Entste­hung poli­ti­scher Welt­bilder. Miriam Meckel sieht das kritisch: Gerade jüngere Leute, die ihre Nach­richten zum großen Teil aus Face­book ziehen, erliegen dem Mecha­nismus, dass die eigene Meinung weiter gestärkt wird. Das führt zu Konse­quenzen, mit denen wir uns ausein­an­der­setzen müssen.“ Sie hält es für wichtig, dass Medien die Mecha­nismen des Inter­nets verstehen und damit umgehen können. Denn die Verzer­rungen im Internet können leicht falsche Mehr­heiten wider­spie­geln, so Meckel.

Das Gefähr­liche an der Filter­blase ist: Wer einmal drin sitzt, will nicht mehr raus und lässt andere Meinungen kaum zu. Auch Niko­laus Blome, stell­ver­tre­tender Chef­re­dak­teur bei Bild und Bild​.de, findet den Trend proble­ma­tisch: Das Medi­en­nut­zungs­ver­halten mancher Gruppen der Bevöl­ke­rung ist so gepolt, sich nur noch im eigenen Silo zu unter­halten, zu infor­mieren und infor­mieren zu lassen. Das trägt zu einer inzes­tuösen Binnen­kom­mu­ni­ka­tion bei, die bestimmt keine breite Infor­miert­heit produ­ziert.“

Werden also alle mal wie Tay? Nicht unbe­dingt. Denn welche Nach­richten man konsu­miert, kann am Ende jeder selbst steuern. Niemand muss sich etwas von einem Algo­rithmus vorschreiben lassen. Wichtig ist nur, sich dessen bewusst zu sein.


Empfohlene Beiträge

Werde Teil unserer Community

Entdecke spannende Geschichten, vernetze dich mit anderen jungen Journalist:innen und gestalte die Medienlandschaft von morgen mit. Melde dich jetzt an und bleibe immer auf dem neuesten Stand.

Wehrpflicht Redaktion Gruppenbild