Nudging zur Reduzierung von Fake News
Autorin: Kira Abstiens
Es ist wieder Samstag: Sie treffen sich in großen Gruppen und „spazieren“ gemeinsam durch die Stadt, lautstark und überwiegend ohne Maske. Bei den sogenannten Corona-Demos sind sich Menschen aus den verschiedensten Ecken der Gesellschaft in einer Sache einig: Die Maßnahmen zur Pandemiebekämpfung müssen weg, die Maske muss weg, der Abstand muss weg, die Gastro muss her, das Leben zurück.
Unter den Demonstrant*innen befinden sich Menschen, die nachvollziehbare Ängste haben, die verzweifelt sind und um ihre Existenzen bangen – darunter Gastronom*innen, Kleinunternehmer*innen, Künstler*innen und Freischaffende. Auch Eltern, die unter der Doppelbelastung aus Kinderbetreuung und Beruf stehen, protestieren für ein Ende der Maßnahmen, weil sie schlicht und einfach nicht mehr können.
Allerdings läuft bei diesen Spaziergängen auch eine Gruppe mit, die auf eine andere, problematische Weise auf sich aufmerksam macht. So haben Anhänger*innen dieser Gruppe ganz kreative Vorstellungen davon, woher das Virus kommt: z.B. solle Bill Gates das Virus erschaffen haben, um mithilfe von Mikrochips in der Impfung unsere Gehirne zu kontrollieren. Andere (oft als Corona-Leugner*innen bezeichnet) meinen zu wissen, dass das Virus schlicht und einfach nicht existent sei – sondern von der Bundesregierung zur gezielten Panikmache erfunden wurde.
Verschwörungstheoretiker*innen sind darauf aus, Theorien, die falsch oder höchst unwahrscheinlich sind, als „Wahrheiten“ zu verbreiten und andere Menschen anzustiften, sich ihnen anzuhängen. Diese so genannten Fake News machen dann den Umlauf. Insbesondere in sozialen Netzwerken boomen Artikel, die behaupten die einzig wahre Wahrheit zu kennen – oft mit unbekanntem Urheber und anonymen Quellen.
Nun könnte man meinen, Verschwörungstheoretiker*innen hat es schon immer gegeben, deren Bekehrung sei unmöglich und sie betätigen sich ja ohnehin bloß in den sozialen Medien. Allerdings birgt dies gerade in Zeiten von Corona besondere Gefahren. Die Verbreitung von Fake News schlägt sich nämlich auch im Verhalten nieder. Menschen, die an Corona bezogene Fake News glauben, sind mitunter nicht bereit, die Maßnahmen zur Eindämmung des Virus mitzutragen. Sie verweigern Masken, Abstand und eine Impfung – und das kann weitreichende Folgen für die gesamte Gesellschaft haben. Denn zur erfolgreichen Pandemiebekämpfung müssen alle an einem Strang ziehen.
Wieso hält sich der Glauben an Verschwörungstheorien so hartnäckig?
Es gibt bestimmte psychologische Mechanismen, die den Glauben an Verschwörungstheorien fördern, aufrechterhalten und verbreiten.
Gefühlte Kontrolle nimmt uns die Angst. Chronische Schmerzpatient*innen empfinden weniger Schmerzen, wenn sie das Gefühl haben, selbst die Kontrolle über ihre Gesundheit zu haben (Zuercher-Huerlimann et al., 2019). Die (gefühlte) Kontrolle über eine Situation zu erlangen, kann also positive psychische und sogar physische Auswirkungen haben. Laut der Sozialpsychologin Pia Lamberty erleben Menschen gerade in Krisenzeiten, wie der Corona-Pandemie, eine Art Kontrollverlust, welcher Stress auslöst (Tagesspiegel, 2020). Das mache sie besonders anfällig für Verschwörungstheorien. Das Leugnen des Virus und seiner Gefahr kann nämlich eine Strategie sein, mit der Unsicherheit dieser bedrohlichen Situation umzugehen. Verschwörungstheorien geben Geschehnissen zudem einen Sinn – sie nehmen ihnen die Zufälligkeit, welche Angst machen kann. Ein Ex-Verschwörungstheoretiker berichtet z.B., dass ihm die Einfachheit der Theorien in einer so komplexen Welt gutgetan habe (ORF, 2021).
Wir wollen sehend unter Blinden sein. Auch das Bedürfnis nach Einzigartigkeit kann beim Glauben an Verschwörungstheorien eine Rolle spielen. Das Gefühl im Gegensatz zur Mehrheit ein kritischer Denker zu sein, der die Dinge hinterfragt und die Realität als einer von wenigen durchschaut, nährt das Selbstbewusstsein (Tagesspiegel, 2020).
Wir finden, was wir suchen. Ein weiterer problematischer Mechanismus tritt bei unserer Informationsbeschaffung auf: Der confirmation bias (dt: Bestätigungsfehler) beschreibt die unbewusste Tendenz Informationen zu suchen und so zu interpretieren, dass sie sich mit unserer bestehenden Meinung decken. Gegenläufige Informationen werden hingegen umgemünzt oder gar nicht erst wahrgenommen und verarbeitet. Dieses Problem wird durch die sozialen Medien, in denen wir vorwiegend auf uns zugeschnittene Informationen angezeigt bekommen (sogenannte „Filterblasen“), noch verstärkt.
Wir glauben, was wir kennen. Durch soziale Medien wie Facebook, Twitter und Co, ist es so einfach wie nie zuvor, Inhalte in kürzester Zeit auf dem gesamten Globus zu verbreiten. Eine aktive Rolle haben Verschwörungstheoretiker*innen, die diese Plattformen nutzen, um gezielt Fake News zu teilen. Das Publikum hat aber auch eine ausschlaggebende Rolle: Es gibt likes, teilt, kommentiert – meist geschieht das unachtsam, impulsiv und ohne bewusstes Reflektieren über die Inhalte. Oft geteilte Inhalte kursieren in sozialen Medien, sie gehen „viral“, werden öfter angezeigt und häufiger gesehen. Der illusory truth effect (dt: Wahrheitseffekt) zeigt, dass wir Inhalten, die wir schon einmal gesehen haben, einen höheren Wahrheitsgehalt zuschreiben, als Inhalten, die wir zum ersten Mal sehen. Dieser Effekt kommt auch bei Fake News zum Tragen – vertraute Inhalte sind glaubwürdiger als neue Inhalte (Ahmadi, 2020).
Da die Verschwörungstheoretiker*innen selbst schwer zu adressieren sind, weil sie in den meisten Fällen bereits zu tief in ihren Theorien stecken, wäre ein möglicher Ansatz das Publikum zu adressieren, um das Teilen und demnach das Kursieren von Falschmeldungen zu reduzieren.
Verhaltensökonomisches Experiment zur Bekämpfung von Fake News in sozialen Netzwerken
Eine US-amerikanische Studie mit einer repräsentativen Stichprobe (insgesamt ca. 1700 Teilnehmer*innen) untersuchte kürzlich wie Menschen mit Inhalten zum Thema COVID-19 in sozialen Netzwerken umgehen (Pennycook, McPhetres, Lu & Rand, 2020). Dazu machten die Wissenschafter*innen zwei Experimente:
Im ersten Experiment wurden Teilnehmer*innen zufällig in zwei Gruppen eingeteilt: Die eine Gruppe wurde mit wahren und falschen COVID bezogenen Inhalten im Format von Facebook-Beiträgen (ein Bild mit Überschrift und Einleitungssatz) konfrontiert und gefragt, ob sie diese teilen würden, z.B. über Facebook oder Twitter. Die andere Gruppe wurde nur um eine Einschätzung des Wahrheitsgehalts der Inhalte gebeten. Es zeigte sich, dass diese Gruppe relativ gut zwischen wahren und falschen Inhalten unterscheiden konnte. Die andere Gruppe, die nur nach ihrer Absicht die Beiträge zu teilen gefragt wurde, würde hingegen wahre und falsche Inhalte in ähnlichem Maße teilen. Das heißt, dass falsche Inhalte zwar als solche erkannt werden, wenn man direkt nach dem Wahrheitsgehalt fragt. Ohne die Anregung über den Wahrheitsgehalt nachzudenken, besteht aber auch für falsche Inhalte die Absicht geteilt zu werden.
In einem zweiten Experiment wurde eine Kontrollgruppe wie im ersten Experiment gefragt, ob sie die ihnen vorgelegten COVID bezogenen Inhalte teilen würde. Eine weitere Gruppe, die Versuchsgruppe, wurde zunächst nach dem Wahrheitsgehalt von Inhalten gefragt, die nichts mit COVID zu tun hatten. Dann wurden derselben Gruppe die COVID bezogenen Inhalte aus dem ersten Experiment vorgelegt und gefragt, ob sie die Inhalte teilen würde.
Es zeigte sich, dass die Versuchsgruppe, die vorher den Wahrheitsgehalt anderer Inhalte einschätzen sollte, eher beabsichtigte, wahre anstelle von falschen COVID-Inhalten zu teilen, als die Kontrollgruppe, die nur nach ihrer Absicht Inhalte zu teilen gefragt wurde.
Die Wissenschafter*innen interpretieren dieses Ergebnis so, dass ein einfacher „Nudge“ – nämlich die Anregung, den Wahrheitsgehalt von Inhalten zu beurteilen – auch die Intention andere Inhalte online zu teilen, beeinflusst. Das heißt, wenn man über den Wahrheitsgehalt von Inhalten reflektieren soll, beabsichtigt man insgesamt eher wahre anstelle von falschen Inhalten zu teilen. Hierbei ist es offensichtlich egal, ob man über den tatsächlichen Fake News Beitrag reflektiert oder generell Beiträge beurteilen soll und somit möglicherweise einen „kritischen Blick“ entwickelt. Für die Bekämpfung von Fake News bedeutet das, dass Menschen vor der Entscheidung Inhalte zu teilen, kurz innehalten und reflektieren sollten, was sie da eigentlich teilen.
Welche verhaltensökonomischen Mechanismen könnten dahinterstecken?
In sozialen Netzwerken geht es darum möglichst viele „Likes“ zu generieren, um soziale Anerkennung und Bestätigung zu bekommen – der Fokus liegt hier also normalerweise weniger auf dem Wahrheitsgehalt der Inhalte. Inhalte zu teilen kann daher häufig ein unreflektierter Impuls sein.
Als Menschen denken wir, vereinfacht gesagt, in zwei Systemen. Mit System 1 treffen wir intuitive und schnelle Entscheidungen, die oft richtig sind und uns den Alltag enorm erleichtern. Mit System 2 zu denken dauert länger und ist anstrengender; dafür sind wir meist in der Lage akkuratere Entscheidungen zu treffen, die auf Fakten und Logik basieren. Da System 2 eine gewisse Anstrengung erfordert, greifen wir in den meisten Situationen auf System 1 zurück – das rationale System 2 springt nur im Bedarfsfall ein. Die Maßnahme aus der Studie könnte man als eine Maßnahme beschreiben, die das System 2 anspricht (in folgendem Videobeitrag erklären wir wie man System 1 und 2 in der Praxis adressieren kann: Verhaltensökonomische Maßnahmen für mehr Sauberkeit im Gemeindebau). Wenn Menschen aufgefordert werden, über den Wahrheitsgehalt von Inhalten nachzudenken, wird das rationale System 2 „aktiviert“ und der erste, intuitive Impuls Inhalte zu teilen, wird erst einmal unterbrochen.
NOT sharing is caring
Die sozial-mediale Verbreitung von Verschwörungstheorien und Fake News ist ein immer größer werdendes Problem in unserer Gesellschaft. Im Falle der Corona-Pandemie sehen wir gerade, dass sie weitreichende und ernsthafte Konsequenzen haben können. Studien zeigen aber, dass man Menschen mit relativ wenig Aufwand vom impulsiven Teilen eines Beitrags – unabhängig vom Faktengehalt– abbringen kann. Denn wenn Menschen angeregt werden, über den Wahrheitsgehalt von Inhalten zu reflektieren, scheinen Fakten sehr wohl eine Rolle bei der Entscheidung „to share or not to share“ zu spielen. Verhaltensökonomische Maßnahmen und einfache „Nudges“ werden die Verbreitung von Fake News nicht gänzlich aufhalten können, aber sie können einen wertvollen Beitrag leisten, um das Problem zu reduzieren.
Quellen
Ahmadi, E. (2020). The role of illusory truth effect in believing the false news of cyberspace. Quarterly of Social Studies and Research in Iran, 9(3), 549-566.
ORF (2021). Zwischen Akzeptanz und Ignoranz - Wie sehr spaltet Corona unsere Gesellschaft? https://tvthek.orf.at/profile/Im-Zentrum/6907623/IM-ZENTRUM-Zwischen-Akzeptanz-und-Ignoranz-Wie-sehr-spaltet-Corona-unsere-Gesellschaft/14090861
Pennycook, G., McPhetres, J., Zhang, Y., Lu, J. G., & Rand, D. G. (2020). Fighting COVID-19 misinformation on social media: Experimental evidence for a scalable accuracy-nudge intervention. Psychological science, 31(7), 770-780.
Tagesspiegel (2020). Eine Psychologin erklärt – das steckt hinter den Corona-Verschwörungstheorien. https://www.tagesspiegel.de/politik/die-pandemie-ist-ein-paradebeispiel-fuer-kontrollverlust-eine-psychologin-erklaert-das-steckt-hinter-den-corona-verschwoerungstheorien/25757012.html
Zuercher-Huerlimann, E., Stewart, J. A., Egloff, N., von Känel, R., Studer, M., & grosse Holtforth, M. (2019). Internal health locus of control as a predictor of pain reduction in multidisciplinary inpatient treatment for chronic pain: a retrospective study. Journal of pain research, 12, 2095.