Sind wir in einer Filterblase gefangen und gab es bei Google personalisierte Suchergebnisse zur Bundestagswahl 2017?

Was ist passiert?

18:00 Uhr, 24. September 2017 in Deutschland. Die Wahllokale wurden geschlossen und die Bundeskanzlerin, Angela Merkel, im Amt bestätigt. Aber die wahlberechtigten Deutschen erneuerten nicht nur den Regierungsauftrag an die amtierende Kanzlerin, sondern 12,6% der Wähler[1] entschieden sich auch für die Alternative für Deutschland (AfD).[2] Mit diesem Ergebnis ist die vermeintlich rechts-populistische AfD[3] drittstärkste Partei im Deutschen Bundestag.

Unlängst wurden Details zu den Einflüssen von Facebook, Google und Co. auf die US-Wahl im Jahr 2016 bekannt. So gab es bei Facebook zahlreiche Anzeigen, die sich gegen die Präsidentschaftskandidatin Hilary Clinton richteten.[4] In Deutschland ist kein Donald Trump zum Bundeskanzler ernannt worden, aber dennoch bleibt die Wahl historisch, denn mit der AfD zog erstmals seit 1961 wieder eine vermeintlich rechte Partei in den Deutschen Bundestag ein. Die Ursachen dafür sind vielfältig und beschäftigen die Politologen. Dabei wurde auch die Frage aufgeworfen, ob IT-Konzerne wie Google und Facebook ähnlich zur US-Wahl einen Einfluss auf das Ergebnis und das starke Abschneiden der AfD hatten.[5]

Heutzutage geht es um mehr als nur das bewusste Verbreiten von Falschmeldungen: Es geht auch um die gezielte Beeinflussung der Internetnutzer durch Personalisierung der Suchergebnisse und Informationsselektion im Netz. Diese Gegebenheiten werden mit dem Phänomen der Filterblase (engl. Filterbubble) und der daraus resultierenden Echokammer beschrieben.

Was genau steckt hinter einer Filterblase?

Die Filterblasentheorie wurde 2011 von Eli Pariser im Buch „The Filter Bubble. What the Internet Is Hiding from You.“ begründet. Der Internetaktivist und Politikwissenschaftler definiert eine Filterblase als „…Ihr ganz persönliches einzigartiges Informations-Universum, in dem Sie online leben. Und was in Ihrer Filterblase ist, hängt davon ab, wer Sie sind und was Sie tun. Aber Sie bestimmen nicht, was hineinkommt. Und, noch wichtiger, Sie sehen nie, was aussortiert wird.“[6] Neben dieser Definition stellt Pariser in seinem TED-Talk das Phänomen der Filterblase genauer vor.

Pariser, Eli: Beware online „filter bubbles“, TED-Talk, o.O. 2011, online unter URL: https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles [Abruf: 2018-05-11]. Aus technischen Gründen hier bereitgestellt über folgende URL: https://www.youtube.com/watch?v=B8ofWFx525s.

Zur Veranschaulichung führt Eli Pariser in seinem Vortrag ein Beispiel an. Zwei Freunde von Pariser gaben das Stichwort „Ägypten“ bei Google ein und erhielten ganz unterschiedliche Suchergebnisse. So erhielt der eine Freund Suchergebnisse, die sich auf die politische Krise in Ägypten beziehen und der andere Freund bekam Links zum Thema Urlaub in Ägypten vorgeschlagen. Ursächlich dafür sind Algorithmen. Im Gegensatz zu einem Lexikon, aus dem zwei unterschiedliche Leser die gleichen Informationen erhalten, sorgen in der digitalen Welt des Internets Algorithmen für personalisierte Informationen. Diese Personalisierung führt dann zu einer individuellen Informationsblase, also eine Filterblase.[7]

Pariser schreibt der Filterblase verschiedene Eigenschaften zu. So entscheidet die Person nicht aus eigenem Antrieb heraus, der Filterblase beizutreten, vielmehr gerät sie aufgrund von äußeren Einflüssen hinein. In der Blase ist die Person allein, das heißt keine andere Person bekommt exakt die gleichen Informationen so präsentiert. Einmal dort gefangen ist es schwierig, der oft unsichtbaren Blase zu entkommen.[8]

Google – Pionier der Personalisierung

Eli Pariser geht in seinem Buch den Ursprüngen der Informationspersonalisierung auf die Spur. Bereits Ende 2009 kündigte Google in seinem Blog die personalisierte Suche für Jedermann an.[9] So ergibt sich bei einer Google-Suche anhand von verschiedenen Parametern wie Ort des Users und Begriffen, nach denen bereits gesucht wurde, ein individuelles Seitenranking. Demnach rückt mittels Algorithmus die Seite, die aufgrund der bekannten Parameter am wahrscheinlichsten angeklickt wird, an die erste Stelle in der Ergebnisliste. Es existieren laut Pariser mittlerweile unabhängig von Google bei vielen Internetkonzernen wie Facebook, Yahoo! und YouTube Personalisierungen und sogar regelrechte Prognosemaschinen, die Rückschlüsse auf die persönlichen Vorlieben durch die bisherige Netzaktivität ziehen. Die Prognosemaschinen versuchen ununterbrochen, ihr Nutzerbild zu verfeinern und erschaffen somit ein eigenes Informationsuniversum des Nutzers.

Die Filterblase – „Ein gemütliches Plätzchen“

Das Bild „Filterbubble“ (siehe Abbildung 1) des Illustrators Jean Jullien erschien im Magazin der Süddeutschen Zeitung und lässt die Konsequenzen für eine in der Filterblase gefangenen Person erahnen. Das gegenüberstehende Spiegelbild ist nicht nur äußerlich angepasst, sondern gibt auch dank Algorithmen das Meinungsbild und die Vorlieben der Person wieder. Aber diese Reproduktion resultiert in einem schwarzen Nichts. Die Person mag sich wohlfühlen, da für sie eine Komfortzone geschaffen wurde, aber sie bewegt sich auch in einer Einbahnstraße, die keine Möglichkeit gibt, die Vielfalt von Meinungen und Interessen anderer Menschen zu entdecken – lediglich Meinungen und Interessen ähnlich ihrer eigenen werden gespiegelt.

Abb. 1: Filterbubble[10]

Das Bedürfnis eines Menschen, sich in eine Komfortzone zu begeben, in der sich auch seine Vorstellungen wiederfinden, ist nicht erst durch das Internet und Algorithmen entstanden. Diese nun technisierte Art des Filterns ist lediglich die Weiterführung einer in allen Menschen angelegten psychologischen Filterung, die durch die selective exposure-Theorie beschrieben wird. Menschen suchen nach dieser Theorie unterbewusst Informationen, die deckungsgleich mit ihren bestehenden Ansichten sind. Wie sich heute der Leser im Internet für eine bestimmte Website entscheidet, entschied sich der Leser im analogen Zeitalter für eine bestimmte Tageszeitung.[11] Diese individuelle selbstbestimmte Filterung ist nicht nur auf das Bestreben eines Menschen nach Informationen zu begrenzen, sondern findet bspw. auch im sozialen Umfeld statt. Im Freundeskreis sind eher Mitmenschen mit gleichen Ansichten und Grundeinstellungen anzutreffen.[12]

Kritische Blicke auf die Filterblase

Aufgrund des dem Menschen innewohnenden Verlangens nach Homophilie wird die selective exposure-Theorie durch Kritiker auch als ein Gegenargument zur Filterblasentheorie angeführt. Der Informations- bzw. Nachrichtenkonsum ist laut Studien grundsätzlich nicht durch Algorithmen von IT-Konzernen gelenkt, sondern durch die psychologischen Aspekte der Konsumenten.[13]

Ein weiterer Kritikpunkt an der Filterblasentheorie ist, dass trotz Personalisierung im Internet oder auch in anderen Medien, wie TV und Zeitung, die Möglichkeit für jeden Filterblasenbewohner besteht, aus dieser herauszukommen aufgrund der heutigen Informationsmenge. Laut der Studie des Projektes „Reuters Institute Digital News Survey“ bezogen 77% der Erwachsenen mit Internet-Zugang in Deutschland die Nachrichten im Jahr 2017 über des Medium TV. Dagegen haben bei dieser Personengruppe lediglich 29% der Befragten die sozialen Medien als Nachrichtenquelle angegeben. Auch Radionachrichten liegen mit 45% noch vor den Sozialen Medien.[14] Durch die Optionsvielfalt an Medien, so die Argumentation, wird man also zwangsläufig an Informationen gelangen, die der Blase widersprechen. Daher könne man gar nicht dauerhaft in der Blase gefangen sein.[15]

Ein zusätzliches Argument gegen die Gefangenheit von Menschen in einer unsichtbaren Filterblase ist, dass ihr der Netzwerkeffekt entgegenstände. In der analogen Welt ist der Kreis an Menschen, zu denen Kontakt und mit denen Meinungsaustausch besteht, begrenzt. Soziale Plattformen ermöglichen den Kontakt zu einem erweiterten Kreis von Mitmenschen, die bspw. Freunde von Freunden sind und nicht zwangsläufig der gleichen Meinung sein müssen und somit auch den Informationen in der Blase entgegenstehen.[16] „Die Netzwerk-Theorie … geht davon aus, dass persönliche Online-Netzwerke größer … sind, so dass eine Person über direkte und indirekte Kontakte häufiger mit heterogenen Inhalten konfrontiert wird.“[17] Diese digital geschaffenen Sozialräume werden durch den Soziologen Manuel Castells unter den Begriff der Netzwerkgesellschaft subsumiert.[18]

Die Filterblase wird kontrovers diskutiert. So ist natürlich Eli Pariser von seiner Theorie überzeugt. Der Datenjournalist Michael Kreil reiht sich in die Riege der Skeptiker ein, die die Theorie nicht gänzlich bestreiten, sie jedoch zumindest intensiv auf den Prüfstand stellen. Genau darin sieht er auch seine Aufgabe, die Theorie mit Daten zu belegen oder ggf. zu widerlegen.[19] Dieses Ziel hatte auch eine Gruppe von Wissenschaftlern, die im Zuge der Bundestagswahl 2017 das Projekt „Datenspende: Google und die Bundestagswahl 2017“ initiierten. Auf Grundlage der These von Eli Pariser könnten sich bei dem Suchbegriff „Angela Merkel“ für einen CDU-Anhänger andere Ergebnisse und somit eine mögliche Filterblase ergeben, als z.B. für einen AfD-Anhänger.[20]

Das Projekt „Datenspende: Google und die Bundestagswahl 2017“

Die durch Google gesteuerten Informationen haben Einfluss auf den Menschen und somit auch ihrer politischen Meinungsbildung, wie groß dieser Einfluss zur Bundestagswahl 2017 war, wurde in der Initiative von Wissenschaftlern untersucht. Das Vorhaben war eine Kooperation von AlgorithmWatch, verschiedenen Landesmedienanstalten und SPIEGEL ONLINE. AlgorithmWatch ist eine im Jahr 2015 von Wissenschaftlern begründete gemeinnützige GmbH, die algorithmische Entscheidungsprozesse näher beleuchtet und Blogartikel oder auch Fallstudien veröffentlicht. Sie erhebt den Anspruch durch die Entwicklung von Regulierungsstrategien das „digitale Foodwatch“ im World Wide Web zu sein.[21]

Das Projekt rief freiwillige Teilnehmer dazu auf, sich ein Plug-In[22] für den jeweils genutzten Webbrowser zu installieren. Dieses Plug-In ermöglichte es, im Vier-Stunden-Takt Google-Suchanfragen über den Browser der Teilnehmer zu stellen. Dabei wurden folgende 16 Suchbegriffe durch die Initiatoren ausgewählt.

  • Angela Merkel
  • Alexander Gauland
  • Martin Schulz
  • Christian Lindner
  • Katrin Göring-Eckhardt
  • Cem Özdemir
  • Sahra Wagenknecht
  • Dietmar Bartsch
  • Alice Weidel
  • CDU
  • CSU
  • SPD
  • FDP
  • Bündnis 90/Die Grünen
  • Die Linke
  • AfD
Tab. 1: Übersicht der Suchbegriffe im Projekt „Datenspende“[23]

Das Plug-In speicherte bei der Suchanfrage in einer eigens entwickelten Datenbank neben der Google-Ergebnisliste, den ungefähren Standort des Computers, die Spracheinstellung des Browsers, sowie die Tatsache, ob der User bei der Anfrage bei Google angemeldet war oder nicht. Durch die Suchanfragen ergaben sich daher rund 32 Ergebnisseiten mit ca. 600 Links. Dabei war nicht nur die klassische Google-Seite relevant, sondern auch die Ergebnisse von Google-News wurden bei der Untersuchung mit herangezogen.[24] Insgesamt stellten rund 4.000 Teilnehmer dem Projekt den Zugriff auf ihren Rechner zur Verfügung, sodass AlgorithmWatch final 3 Millionen Datensätze erheben konnte.

Die Auswertung durch die Wissenschaftler ergab, dass eine Personalisierung der Suchergebnisse kaum vorhanden war. Eine große Varianz der Ergebnisliste, wie von Eli Pariser im TED-Talk mit Blick auf die beiden Ägypten-interessierten Freunde berichtet, konnte in diesem Projekt nicht festgestellt werden. Bei der Datenauswertung wurde ersichtlich, dass sich bei dem Suchbegriff „Angela Merkel“ im Durchschnitt nur ein anderer Link im Vergleich zu einem beliebigen anderen Nutzer für die Suchanfrage angezeigt wurde (Tabelle 2). Demnach ergab sich lediglich eine einzige Möglichkeit zur Personalisierung. Insgesamt waren die potenziellen Personalisierungsmöglichkeiten bei den Suchanfragen zu den Politikern recht gering. Im Vergleich dazu ergaben sich bei den Anfragen zu den Parteien deutlich größere Abweichungen.

So unterschieden sich beim Suchbegriff „CDU“ im Durchschnitt fast vier Links (Tabelle 2). Das bedeutet, dass es hier einen Spielraum von durchschnittlich vier möglichen Personalisierungen gab. Allerdings sind diese Personalisierungen im Wesentlichen auf die unterschiedlichen Standorte der Teilnehmer zurückzuführen, denn den Usern wurden beispielsweise Links der ansässigen Ortsverbände der gesuchten Partei angezeigt.[25] Die Analyse der Daten umfasste auch die Differenzierung zwischen eingeloggten und nicht eingeloggten Google-Nutzern. Dabei wurde herausgefunden, dass keine nennenswerten Unterschiede in den Suchergebnissen zu finden waren.

Tab. 2: Durchschnittliche Anzahl nicht geteilter Links (organische Suchergebnisse)[26]

Insgesamt konnte im Rahmen dieses Projektes festgestellt werden, dass die minimal vorliegende Personalisierung durch Algorithmen bei Google-Suchergebnissen nicht zu Bildung einer Filterblase führen konnte bei der Bundestagswahl 2017. Dabei ist jedoch festzuhalten, dass dieses Projekt nicht repräsentativ für die deutsche Bevölkerung ist, da u.a. die Anzahl an Datenspendern zu gering war und nur dieser spezielle Anwendungsbereich untersucht wurde. Die Ergebnisse des Projektes widersprechen damit aber nicht der Filterblasentheorie.[27]

Abgrenzung zur Filterblase – Was sind Echokammern, Fake News und Social Bots?

Neben der Filterblasentheorie gibt es weitere Phänomene und Begrifflichkeiten, die mittlerweile den Alltag von Internetnutzern beeinflussen. Als Resultat einer Filterblase können sich Echokammern ergeben. „Die Echokammer beschreibt einen Raum, in dem alle dasselbe rufen, das Echo immer lauter wird und alle in ihrer Meinung bestätigt.“[28] Die Filterblasentheorie beschreibt die Informationserlangung von Nutzern, während sich bei der Theorie der Echokammern die Nutzer bspw. einer sozialen Plattform durch Meinungsaustausch in ihren Ansichten bestärken und sich gegenseitig „hochschaukeln“.[29] An dieser Stelle wird als Beispiel die Plattform Facebook angeführt. Die Entstehung von Echokammern ist aber nicht allein auf Facebook beschränkt, sondern kann auch auf Plattformen wie Twitter entstehen.

Abb. 2: Das politische Netzwerk auf Facebook[30]

Die Süddeutsche Zeitung hat im Vorfeld zur Bundestagswahl über ein halbes Jahr Daten von ca. 5.000 Facebook-Nutzern ausgewertet, um die politische Einflussnahme von Facebook zu analysieren. Dabei wurden die öffentlich zugänglichen Likes der Nutzer betrachtet und die Facebook-Seiten der Parteien hervorgehoben, die am wahrscheinlichsten in den Deutschen Bundestag einziehen würden.[31] Bei der Auswertung konnte feststellt werden, dass weniger eine Filterblase als vielmehr eine Echokammer, vornehmlich bei der AfD, vorhanden ist (siehe Abbildung 2). Die Punkte auf der in Abbildung 2 dargestellten Karte geben Facebook-Seiten wieder. Je näher sich zwei Punkte auf dieser Karte sind, desto mehr Nutzer haben beide Seiten geliket.[32] Die User aus dem AfD-Umfeld sind also mehr für sich und in größerer Distanz zu den anderen Parteien.[33] Die gelikten Seiten transportieren die Meinung der User im AfD-Umfeld immer weiter und verstärken den Echokammereffekt. Solche Echokammern, in denen einzelne Informationen und Meinungen verstärkt Gehör erhalten, sind für die bewusste Fehlinformation von Usern und der meinungsbildenden Beeinflussung sehr mächtig. Es kann zur Verbreitung von Fake News kommen.

Bei Fake News handelt es sich um bewusste Fehlinformationen und sie sind daher klar abzugrenzen von Satire, Parodien oder auch Zeitungsenten. Wie auch bei den anderen Phänomenen gilt, dass es Desinformationen auch schon vor der Zeit des Internets gab.[34] Die Website hoaxmap.org sammelt Fake News zum Themenkomplex Flüchtlinge und stellt diese richtig.[35] Neben absichtlichen Falschmeldungen im Netz können auch Social Bots auftreten. Dahinter stecken programmierte Algorithmen, die bei Eintreten bestimmter Voraussetzungen vorher hinterlegte Nachrichten in den digitalen Sozialräumen automatisiert veröffentlichen oder Kommentare absetzen. So entsteht also ein virtuelles Gegenüber, das ggf. eine Einflussnahme auf den Nutzer vornehmen kann.[36]

Alles nur ein Hype oder steckt mehr dahinter?

Die digitale Welt hat das bisher schon bestehende gesellschaftliche Zusammenleben auf eine neue Ebene gebracht. Dadurch können bereits existierende Paradigmen verfeinert oder ganz neue Theorien aufgestellt und verifiziert werden. Dafür wurde bspw. an der Universität Kopenhagen das „Center for Information and Bubble Studies“ gegründet.[37] Auch wenn die Filterblasentheorie anfangs beängstigend wirkt, gilt es auch hier wie bei Kommentaren in sozialen Netzwerken genauer hinzusehen. Die angesprochenen Projekte „Datenspende“ und „Reuters Institute Digital News Survey“ ermöglichen es, die Theorien besser zu verstehen und so entsprechend zu bewerten.

Eine Filterblase ergibt sich wie bereits erläutert auch im nicht digitalen Raum und kann nicht ausschließlich für Wahlausgänge verantwortlich gemacht werden. Die Möglichkeiten des Internets wirken insgesamt als Verstärker von oft bereits bestehenden menschlichen Denk- und Verhaltensweisen. Die Internetgiganten wie Google oder Facebook haben zumindest moralisch gesehen aufgrund ihrer Monopolstellung eine Verantwortung für die publizierten Inhalte, auch wenn sie diese nicht annehmen wollen. Rechtlich gesehen sind diese Konzerne allerdings anders zu behandeln als Verlage. Sie selber reklamieren für sich, dass sie keine Informationen zur Verfügung stellen, sondern diese durch Nutzer bereitgestellt und „abgeholt“ werden.[38] Hier gilt es, in den nächsten Jahren international einen Rahmen zu schaffen, um die Rolle der Akteure für die Bevölkerung transparenter zu machen. Aber nicht nur die Konzerne sind gefragt, auch die Nutzer müssen ihren Beitrag leisten. So ist eine Eigenverantwortung an den Tag zu legen und die Medienkompetenz der Menschen muss gestärkt werden. Dies könnte z.B. im Rahmen der schulischen Ausbildung erfolgen.

Insgesamt sind die angesprochenen Themen aber noch intensiver wissenschaftlich zu behandeln, um die Auswirkungen von Filterblasen, Echokammern und Social Bots auf den Menschen, das Zusammenleben und die Demokratie zu konkretisieren. Quintessenz bleibt: Jeder Mensch lebt zu einem gewissen Grad in einer Filterblase. Gefangen ist allerdings nur derjenige, der Dinge nicht hinterfragt.

Zu empfehlen sind folgende Beiträge:

Sixtus, Mario: Im Netz der Lügen – Falschmeldungen im Internet, in: ZDFmediathek, Deutschland 2017, online unter URL: https://www.zdf.de/dokumentation/zdfinfo-doku/im-netz-der-luegen-falschmeldungen-im-internet-104.html [Abruf: 2018-06-13].

Kreil, Michael: Social Bots, Fake News und Filterblasen, Leipzig 2017, online unter URL: https://media.ccc.de/v/34c3-9268-social_bots_fake_news_und_filterblasen [Abruf: 2018-05-03]. Aus technischen Gründen hier bereitgestellt über folgende URL: https://www.youtube.com/watch?v=6jNWl5d_DOk.

Literatur- und Quellenverzeichnis

  1. Im Folgenden wird aus Gründen der besseren Lesbarkeit ausschließlich die männliche Form benutzt. Die Personenbezeichnungen gelten für sämtliche Geschlechter.
  2. Vgl. Bundeswahlleiter: Endgültiges Ergebnis Bundestagswahl, Wiesbaden 2017, online unter URL: https://www.bundeswahlleiter.de/info/presse/mitteilungen/bundestagswahl-2017/34_17_endgueltiges_ergebnis.html[Abruf: 2018-05-05].
  3. Vgl. Häusler, Alexander, Hrsg. Die Alternative für Deutschland. Wiesbaden: Springer Fachmedien Wiesbaden, 2016. https://doi.org/10.1007/978-3-658-10638-6, S. 7 ff.
  4. Vgl. Gruber, Angela: Manipulationen im US-Wahlkampf – Plötzlich sind Google und Facebook ganz kleinlaut, in: SPIEGEL ONLINE, o.O. 2017, online unter URL: http://www.spiegel.de/netzwelt/netzpolitik/russlands-einfluss-auf-us-wahlen-silicon-valley-verteidigt-sich-a-1176161.html [Abruf: 2018-05-07].
  5. Vgl. Benedikt Peters: Bundestagswahl- Warum die AfD so gut abgeschnitten hat, in: Süddeutsche Zeitung, Berlin 2017, online unter URL: http://www.sueddeutsche.de/politik/bundestagswahl-warum-die-afd-so-gut-abgeschnitten-hat-1.3679800 [Abruf: 2018-05-07].
  6. Pariser, Eli: Beware online „filter bubbles“, o.O. 2011, online unter URL: https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles/transcript [Abruf: 2018-06-13].
  7. Pariser, Eli: Beware online „filter bubbles“, TED-Talk, o.O. 2011, online unter URL: https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles [Abruf: 2018-05-11].
  8. Vgl. Pariser, Eli: Filter Bubble: Wie wir im Internet entmündigt werden. München: Hanser, 2012, S. 9 ff.
  9. Horling, Bryan / Kulick, Matthew: Personalized Search for Everyone, in: Official Google Blog, o.O. 2009, unter URL: https://googleblog.blogspot.com/2009/12/personalized-search-for-everyone.html Abruf: 2018-06-18].
  10. Abb. 1: Filterbubble, Jean Jullien, o.O. o.D., online unter URL: https://sz-magazin.sueddeutsche.de/jean-jullien-meine-woche/wochenende-symbolbild-83817 [Abruf: 2018-06-02].
  11. Vgl. Kappes, Christoph / Krone, Jan / Novy, Leonard, Hrsg: Medienwandel kompakt 2014–2016. Wiesbaden: Springer Fachmedien Wiesbaden, 2017. https://doi.org/10.1007/978-3-658-17501-6, S. 102.
  12. Vgl. Kappes, Christoph: Warum die Gefahren der Filter Bubble überschätzt werden, o.O. 2012, online unter URL: http://christophkappes.de/wp-content/uploads/downloads/2012/06/TZD_Kappes-Christoph_-Filter-Bubble.pdf [Abruf: 2018-06-06], S. 4.
  13. Vgl. Kappes, Christoph / Krone, Jan / Novy, Leonard, Hrsg: Medienwandel kompakt 2014–2016. Wiesbaden: Springer Fachmedien Wiesbaden, 2017. https://doi.org/10.1007/978-3-658-17501-6, S. 102.
  14. Uwe Hasebrink, Uwe / Hölig, Sascha: Reuters Institute Digital News Survey 2017 – Ergebnisse für Deutschland, Arbeitspapiere des Hans-Bredow-Instituts Nr. 42, Hamburg 2017, online unter URL: https://www.hans-bredow-institut.de/uploads/media/Publikationen/cms/media/2d87ccdfc2823806045f142bebc42f5f039d0f11.pdf [Abruf: 2018-06-10], S. 16.
  15. Vgl. Schweiger, Wolfgang: Der (des)informierte Bürger im Netz. Wiesbaden: Springer Fachmedien Wiesbaden, 2017. https://doi.org/10.1007/978-3-658-16058-6, S. 91.
  16. Ebd.
  17. Ebd.
  18. Vgl. Castells, Manuel: Der Aufstieg der Netzwerkgesellschaft. Wiesbaden: Springer Fachmedien Wiesbaden, 2017. https://doi.org/10.1007/978-3-658-11322-3, S. XXII.
  19. Vgl. Meineck, Sebastian: Twitter-Datenanalyse – „Wir hatten eine falsche Vorstellung von der Filterblase“, in: SPIEGEL ONLINE, o.O. 2017, online unter URL: http://www.spiegel.de/netzwelt/web/twitter-datenanalyse-wir-hatten-eine-falsche-vorstellung-von-der-filterblase-a-1185406.html [Abruf: 2018-06-13].
  20. Vgl. o.V.: Aufruf zur „Datenspende“ – Googeln für die Wissenschaft, in: SPIEGEL ONLINE, o.O. 2017, online unter URL: http://www.spiegel.de/netzwelt/web/datenspende-forschungsprojekt-ueber-google-sucht-freiwillige-helfer-a-1156060.html [Abruf: 2018-05-11].
  21. Vgl. AlgorithmWatch: Über – AlgorithmWatch o.O. o.D., online unter URL: https://algorithmwatch.org/de/ueber-kontakt/ [Abruf: 2018-05-12]., Borchers, Detlef: re:publica: Beobachtungsplattform Algorithm Watch ist online, in: heise online, o.O. 2016, online unter URL: https://www.heise.de/newsticker/meldung/re-publica-Beobachtungsplattform-Algorithm-Watch-ist-online-3197438.html [Abruf: 2018-05-12].
  22. „Zusatzprogramm, welches über eine vordefinierte Schnittstelle in ein Basisprogramm eingebunden wird und dessen Funktionsumfang erweitert.“ Kollmann, Tobias / Lackes, Richard / Siepermann, Markus: Plug-in – Definition, in: Gabler Wirtschaftslexikon Online, o.O. 2018, online unter URL: https://wirtschaftslexikon.gabler.de/definition/plug-45394/version-268688 [Abruf: 2018-06-13].
  23. Tab. 1: Übersicht der Suchbegriffe im Projekt „Datenspende“. Eigene Darstellung in Anlehnung an Gamer, Michael / Krafft, Tobias D. / Laessing, Marcel / Zweig, Katharina A.: Zwischenbericht Datenspende, o.O. 2017, online unter URL: https://algorithmwatch.org/wp-content/uploads/2017/09/1_Zwischenbericht__final.pdf [Abruf: 2018-05-20], S. 3.
  24. Vgl. AlgorithmWatch: Datenspende, o.O. 2017, online unter URL: https://datenspende.algorithmwatch.org/ [Abruf: 2018-05-12].
  25. Vgl. Gamer, Michael / Krafft, Tobias D. / Laessing, Marcel / Zweig, Katharina A.: Zwischenbericht Datenspende, o.O. 2017, online unter URL: https://algorithmwatch.org/wp-content/uploads/2017/09/1_Zwischenbericht__final.pdf [Abruf: 2018-05-20], S. 1-3.
  26. Tab. 2: Durchschnittliche Anzahl nicht geteilter Links (organische Suchergebnisse). Gamer, Michael / Krafft, Tobias D. / Laessing, Marcel / Zweig, Katharina A.: Zwischenbericht Datenspende, o.O. 2017, online unter URL: https://algorithmwatch.org/wp-content/uploads/2017/09/1_Zwischenbericht__final.pdf [Abruf: 2018-05-20], S. 3.
  27. Vgl. Gamer, Michael / Krafft, Tobias D. / Laessing, Marcel / Zweig, Katharina A.: Zwischenbericht Datenspende, o.O. 2017, online unter URL: https://algorithmwatch.org/wp-content/uploads/2017/09/1_Zwischenbericht__final.pdf [Abruf: 2018-05-20], S. 8, 10-11.
  28. Schweiger, Wolfgang: Der (des)informierte Bürger im Netz. Wiesbaden: Springer Fachmedien Wiesbaden, 2017. https://doi.org/10.1007/978-3-658-16058-6, S. 145.
  29. Vgl. Schweiger, Wolfgang: Der (des)informierte Bürger im Netz. Wiesbaden: Springer Fachmedien Wiesbaden, 2017. https://doi.org/10.1007/978-3-658-16058-6, S. 7.
  30. Abb. 2: Das politische Netzwerk auf Facebook, Brunner, Katharina / Ebitsch Sabrina, o.O. 2017, online unter URL: http://www.sueddeutsche.de/politik/politik-auf-facebook-rechte-abschottung-ohne-filterblase-1.3470137 [Abruf: 2018-06-13].
  31. Vgl. Brunner, Katharina: Der Facebook Faktor – So haben wir die Daten recherchiert, in: Süddeutsche Zeitung, Berlin 2017, online unter URL: http://www.sueddeutsche.de/digital/der-facebook-faktor-so-haben-wir-die-daten-recherchiert-1.3474026 [Abruf: 2018-06-13].
  32. Vgl. Brunner, Katharina / Ebitsch Sabrina: Der Facebook-Faktor – Von AfD bis Linkspartei – so politisch ist Facebook, in Süddeutsche Zeitung, o.O. 2017, online unter URL: http://www.sueddeutsche.de/politik/politik-auf-facebook-rechte-abschottung-ohne-filterblase-1.3470137 [Abruf: 2018-06-13].
  33. Vgl. Brodnig, Ingrid: Lügen im Netz: Wie Fake News, Populisten und unkontrollierte Technik uns manipulieren. 1. Auflage. Wien: Brandstätter, 2017, S. 75, 76.
  34. Vgl. Humborg, Christian, und Thuy Anh Nguyen: Die Publizistische Gesellschaft: Journalismus und Medien Im Zeitalter des Plattformkapitalismus. Wiesbaden: Vieweg, 2018. http://public.eblib.com/choice/publicfullrecord.aspx?p=5307274, S.29.
  35. Vgl. Hurtz, Simon: Diese Karte entlarvt Gerüchte über Flüchtlinge, in: Süddeutsche Zeitung, o.O. 2016, online unter URL: http://www.sueddeutsche.de/digital/falschmeldungen-im-internet-diese-karte-entlarvt-geruechte-ueber-fluechtlinge-1.2856642 [Abruf: 2018-06-09].
  36. Vgl. o.V.: Was sind Social Bots?, in: bpb, o.O. 2017, online unter URL: http://www.bpb.de/252585/was-sind-social-bots [Abruf: 2018-06-10].
  37. Vgl. University of Copenhagen: Center for Information and Bubble Studies (CIBS), o.O. o.D., online unter URL: https://bubblestudies.ku.dk/ [Abruf: 2018-06-13].
  38. Vgl. Sixtus, Mario: Im Netz der Lügen – Falschmeldungen im Internet, in: ZDFmediathek, Deutschland 2017, online unter URL: https://www.zdf.de/dokumentation/zdfinfo-doku/im-netz-der-luegen-falschmeldungen-im-internet-104.html [Abruf: 2018-06-13].
Dieser Beitrag wurde unter Allgemein abgelegt und mit , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.