Von Filterblasen und Echokammern
26. September 2017"Die Parteien wirken bei der politischen Willensbildung des Volkes mit." So steht es in Artikel 21 des Grundgesetzes. Von Facebook ist dort nicht die Rede. Und doch spielten Soziale Medien eine nicht zu unterschätzende - und längst nicht immer klare - Rolle im Bundestagswahlkampf 2017. Von "Filterblasen" und "Echokammern" raunen Experten in diesem Zusammenhang geheimnisvoll. Sie meinen damit vor allem, dass Facebook & Co. nicht - wie andere Medien es tun (oder tun sollten) - den demokratischen Diskurs fördern, sondern vorgefasste Meinungen der Nutzer zementieren.
Die Filterblase - schon geplatzt?
Begriffsklärung: Als Filterblase (englisch "filter bubble") bezeichnete der US-amerikanische Autor Eli Pariser im Jahr 2011 das Phänomen, dass Internetseiten versuchen, mittels eines Algorithmus vorauszusagen, welche Informationen der Benutzer auffinden möchte. Was bei Suchmaschinen sehr sinnvoll sein kann, führe jedoch - so Parisers Theorie - oft zum Ausschluss von Informationen, die dem Standpunkt des Benutzers nicht entsprechen.
Der Begriff der Filterblase ist unter Kommunikationsforschern umstritten, weil ihre Existenz - je nach Studie - mal nachgewiesen, mal widerlegt wird. Die deutsche Plattform AlgorithmWatch hat zur Bundestagswahl eine Studie vorgelegt, die zumindest Google von dem Vorwurf freispricht, seine Nutzer in politische Filterblasen zu sperren. Über 4000 Freiwillige haben bei Google vorgegebene Suchanfragen nach deutschen Politikern und Parteien eingegeben. Das Ergebnis von fast sechs Millionen Suchergebnissen: Die ersten acht bis neun Suchvorschläge stimmten bei den meisten Nutzern überein. Eine Personalisierung nach eigenen Vorlieben findet nicht statt, auch nicht bei eingeloggten Google-Usern, die die meisten Datenspuren hinterlassen.
Matthias Spielkamp von AlgorithmWatch bestreitet gegenüber der DW sogar die Bedeutung der Filterblase: "Diese ganze Theorie der Filterblase steht auf wackeligen Füßen, weil man ja davon ausgehen muss, dass diese Leute außer diesen Nachrichten, die sie da bekommen, keinen anderen Informationen ausgesetzt sind, dass sie nicht Zeitung lesen, nicht Fernsehen gucken, nicht Radio hören."
Echokammer statt Lügenpresse
Was aber ist mit den Menschen, die mit den Massenmedien, die Spielkamp als Korrektiv zur Filterblase sieht, nichts mehr anfangen können oder wollen? Was ist mit denen, die die klassischen Medien als Lügenpresse verunglimpfen? Die potentiellen Wähler der AfD misstrauen oft den Mainstream-Medien. Diese durchaus nicht wohlwollend gemeinte Bezeichnung haben sie von der US-amerikanischen Tea-Party-Bewegung übernommen und sie glauben, zuverlässige Informationen seien nur aus "alternativen" Quellen zu bekommen. Daraus hat sich speziell auf Facebook eine Kultur des Teilens und Weiterverbreitens ausschließlich solcher Informationen gebildet, die in das eigene Weltbild passen - egal, ob sie wahr sind oder nicht.
Ist das die Filterblase durch die Hintertür, in Form einer politischen Echokammer? Den Begriff Echokammer verwenden Kommunikationsforscher für den Effekt, der entsteht, wenn ein Nutzer virtuellen Kontakt überwiegend mit Gleichgesinnten pflegt und dadurch seine Weltsicht verengt.
Während Google sich - bis zur nächsten Studie - vorerst auf seine Neutralität berufen kann, muss Facebook sich in diesem Punkt seiner Verantwortung stellen, meint Martin Giesler, Kulturanthropologe, Journalist und Gründer des Social Media Watchblog, im DW-Gespräch. Schließlich lebt Facebook, anders als Google, nicht davon, den Nutzer mit validen Suchergebnissen auf andere Webseiten zu schicken: "Facebook setzt alles daran, dass die Nutzer sich wohlfühlen auf dieser Plattform und das bedeutet, dass die Nutzer eben nicht mit Dingen konfrontiert werden, die sie herausfordern, sondern die sie eher in ihrem Weltbild bestätigen." Je länger ein Nutzer die Facebook-App oder -Seite nutzt, desto mehr Werbung kann Facebook einblenden - und Werbung ist das, womit Facebook Geld verdient.
Dazu komme, so Giesler, dass Facebook unabsichtlich auch dem Prinzip des AfD-Wahlkampfes entgegenkomme, der wenig mit drögen Fakten, sondern vor allem mit den Ängsten und Emotionen der Zielgruppe arbeite: "Dass Facebook ein Kanal ist, der hochgradig dafür geeignet ist, um Inhalte emotional zu verpacken und an den Mann zu bringen, das steht außer Frage. Es gibt für Facebook auch gar keinen Grund, nüchtern und sachlich zu bleiben, denn langweilig kann jeder."
Technische Plattform mit gesellschaftlicher Verantwortung
Wenn Facebook auf diese Schwachstelle angesprochen wurde, beispielsweise auf extremistische Inhalte im jüngsten US-Wahlkampf, dann hat das Unternehmen sich in der Vergangenheit stets damit verteidigt, es stelle lediglich eine technische Plattform bereit - die Inhalte kämen von den Nutzern. Inzwischen, so Giesler, gebe es jedoch durchaus Signale aus der Facebook-Zentrale, "dass sie die Zeichen der Zeit erkannt haben und sich ein bisschen weiter öffnen und sich dem Diskurs zumindest nicht ganz verschließen". Giesler wünscht sich vor allem mehr Transparenz, die zeigt, wie Inhalte auf der Plattform verbreitet werden und welche Werbebotschaft von wem stammt.
Denn nicht alle Inhalte stammen tatsächlich von Nutzern wie du und ich. Im September bestätigte Facebooks Sicherheitschef Alex Stamos, dass man 470 angebliche User gefunden habe, die - vermutlich mit Geld aus Moskau - während des US-Wahlkampfes 2016 rund 3000 Anzeigen geschaltet hätten, die nicht sofort als solche zu erkennen gewesen seien. In einem Neun-Punkte-Plan führte Facebook-Gründer Mark Zuckerberg vergangene Woche aus, wie man Wahlmanipulationen weltweit künftig begegnen wolle. Im Vorfeld der Bundestagswahl habe Facebook "tausende" von Nutzerkonten gelöscht, über die Falschmeldungen veröffentlicht und verbreitet wurden.
Welchen Einfluss hatten soziale Medien also tatsächlich auf den Ausgang der Bundestagswahl 2017? Mit dieser Frage dürften Sozial- und Medienwissenschaftler auf Jahre hin ausgelastet sein, weil eine genaue Untersuchung dessen, was Facebook seinen Nutzern zeigt, nur dann sinnvoll ist, wenn diese Nutzer - freiwillig, versteht sich - eine Menge privater Daten herausrücken. Matthias Spielkamp resümiert: "Man muss sich die Frage stellen: Wie weit dringt man in die Privatsphäre der Nutzer ein? Man kann nicht, ohne private Daten zu bekommen, belastbare Ergebnisse vorlegen."